Index: test/CodeGen/AMDGPU/sgpr-copy.ll =================================================================== --- test/CodeGen/AMDGPU/sgpr-copy.ll +++ test/CodeGen/AMDGPU/sgpr-copy.ll @@ -3,189 +3,188 @@ ; This test checks that no VGPR to SGPR copies are created by the register ; allocator. + ; CHECK-LABEL: {{^}}phi1: ; CHECK: s_buffer_load_dword [[DST:s[0-9]]], {{s\[[0-9]+:[0-9]+\]}}, 0x0 ; CHECK: v_mov_b32_e32 v{{[0-9]}}, [[DST]] - -define void @phi1(<16 x i8> addrspace(2)* inreg, <16 x i8> addrspace(2)* inreg, <32 x i8> addrspace(2)* inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 { +define void @phi1(<16 x i8> addrspace(2)* inreg %arg, <16 x i8> addrspace(2)* inreg %arg1, <32 x i8> addrspace(2)* inreg %arg2, i32 inreg %arg3, <2 x i32> %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <3 x i32> %arg7, <2 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, float %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19) #0 { main_body: - %20 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %0, i32 0 - %21 = load <16 x i8>, <16 x i8> addrspace(2)* %20, !tbaa !1 - %22 = call float @llvm.SI.load.const(<16 x i8> %21, i32 0) - %23 = call float @llvm.SI.load.const(<16 x i8> %21, i32 16) - %24 = call float @llvm.SI.load.const(<16 x i8> %21, i32 32) - %25 = fptosi float %23 to i32 - %26 = icmp ne i32 %25, 0 - br i1 %26, label %ENDIF, label %ELSE + %tmp = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg, i32 0 + %tmp20 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0 + %tmp21 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 0) + %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 16) + %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 32) + %tmp24 = fptosi float %tmp22 to i32 + %tmp25 = icmp ne i32 %tmp24, 0 + br i1 %tmp25, label %ENDIF, label %ELSE ELSE: ; preds = %main_body - %27 = fsub float -0.000000e+00, %22 + %tmp26 = fsub float -0.000000e+00, %tmp21 br label %ENDIF -ENDIF: ; preds = %main_body, %ELSE - %temp.0 = phi float [ %27, %ELSE ], [ %22, %main_body ] - %28 = fadd float %temp.0, %24 - call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %28, float %28, float 0.000000e+00, float 1.000000e+00) +ENDIF: ; preds = %ELSE, %main_body + %temp.0 = phi float [ %tmp26, %ELSE ], [ %tmp21, %main_body ] + %tmp27 = fadd float %temp.0, %tmp23 + call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %tmp27, float %tmp27, float 0.000000e+00, float 1.000000e+00) ret void } ; Make sure this program doesn't crash ; CHECK-LABEL: {{^}}phi2: -define void @phi2(<16 x i8> addrspace(2)* inreg, <16 x i8> addrspace(2)* inreg, <32 x i8> addrspace(2)* inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 { +define void @phi2(<16 x i8> addrspace(2)* inreg %arg, <16 x i8> addrspace(2)* inreg %arg1, <32 x i8> addrspace(2)* inreg %arg2, i32 inreg %arg3, <2 x i32> %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <3 x i32> %arg7, <2 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, float %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19) #0 { main_body: - %20 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %0, i32 0 - %21 = load <16 x i8>, <16 x i8> addrspace(2)* %20, !tbaa !1 - %22 = call float @llvm.SI.load.const(<16 x i8> %21, i32 16) - %23 = call float @llvm.SI.load.const(<16 x i8> %21, i32 32) - %24 = call float @llvm.SI.load.const(<16 x i8> %21, i32 36) - %25 = call float @llvm.SI.load.const(<16 x i8> %21, i32 40) - %26 = call float @llvm.SI.load.const(<16 x i8> %21, i32 48) - %27 = call float @llvm.SI.load.const(<16 x i8> %21, i32 52) - %28 = call float @llvm.SI.load.const(<16 x i8> %21, i32 56) - %29 = call float @llvm.SI.load.const(<16 x i8> %21, i32 64) - %30 = call float @llvm.SI.load.const(<16 x i8> %21, i32 68) - %31 = call float @llvm.SI.load.const(<16 x i8> %21, i32 72) - %32 = call float @llvm.SI.load.const(<16 x i8> %21, i32 76) - %33 = call float @llvm.SI.load.const(<16 x i8> %21, i32 80) - %34 = call float @llvm.SI.load.const(<16 x i8> %21, i32 84) - %35 = call float @llvm.SI.load.const(<16 x i8> %21, i32 88) - %36 = call float @llvm.SI.load.const(<16 x i8> %21, i32 92) - %37 = getelementptr <32 x i8>, <32 x i8> addrspace(2)* %2, i32 0 - %38 = load <32 x i8>, <32 x i8> addrspace(2)* %37, !tbaa !1 - %39 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %1, i32 0 - %40 = load <16 x i8>, <16 x i8> addrspace(2)* %39, !tbaa !1 - %41 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %3, <2 x i32> %5) - %42 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %3, <2 x i32> %5) - %43 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %3, <2 x i32> %5) - %44 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %3, <2 x i32> %5) - %45 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %3, <2 x i32> %5) - %46 = bitcast float %41 to i32 - %47 = bitcast float %42 to i32 - %48 = insertelement <2 x i32> undef, i32 %46, i32 0 - %49 = insertelement <2 x i32> %48, i32 %47, i32 1 - %50 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %49, <32 x i8> %38, <16 x i8> %40, i32 2) - %51 = extractelement <4 x float> %50, i32 2 - %52 = call float @fabs(float %51) - %53 = fmul float %43, %43 - %54 = fmul float %44, %44 - %55 = fadd float %54, %53 - %56 = fmul float %45, %45 - %57 = fadd float %55, %56 - %58 = call float @llvm.amdgcn.rsq.f32(float %57) - %59 = fmul float %43, %58 - %60 = fmul float %44, %58 - %61 = fmul float %45, %58 - %62 = fmul float %59, %23 - %63 = fmul float %60, %24 - %64 = fadd float %63, %62 - %65 = fmul float %61, %25 - %66 = fadd float %64, %65 - %67 = fsub float -0.000000e+00, %26 - %68 = fmul float %66, %52 - %69 = fadd float %68, %67 - %70 = fmul float %27, %69 - %71 = fmul float %28, %69 - %72 = call float @fabs(float %70) - %73 = fcmp olt float 0x3EE4F8B580000000, %72 - %74 = sext i1 %73 to i32 - %75 = bitcast i32 %74 to float - %76 = bitcast float %75 to i32 - %77 = icmp ne i32 %76, 0 - br i1 %77, label %IF, label %ENDIF + %tmp = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg, i32 0 + %tmp20 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0 + %tmp21 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 16) + %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 32) + %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 36) + %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 40) + %tmp25 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 48) + %tmp26 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 52) + %tmp27 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 56) + %tmp28 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 64) + %tmp29 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 68) + %tmp30 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 72) + %tmp31 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 76) + %tmp32 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 80) + %tmp33 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 84) + %tmp34 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 88) + %tmp35 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 92) + %tmp36 = getelementptr <32 x i8>, <32 x i8> addrspace(2)* %arg2, i32 0 + %tmp37 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp36, !tbaa !0 + %tmp38 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg1, i32 0 + %tmp39 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp38, !tbaa !0 + %tmp40 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg3, <2 x i32> %arg5) + %tmp41 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg3, <2 x i32> %arg5) + %tmp42 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %arg3, <2 x i32> %arg5) + %tmp43 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %arg3, <2 x i32> %arg5) + %tmp44 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %arg3, <2 x i32> %arg5) + %tmp45 = bitcast float %tmp40 to i32 + %tmp46 = bitcast float %tmp41 to i32 + %tmp47 = insertelement <2 x i32> undef, i32 %tmp45, i32 0 + %tmp48 = insertelement <2 x i32> %tmp47, i32 %tmp46, i32 1 + %tmp49 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp48, <32 x i8> %tmp37, <16 x i8> %tmp39, i32 2) + %tmp50 = extractelement <4 x float> %tmp49, i32 2 + %tmp51 = call float @fabs(float %tmp50) + %tmp52 = fmul float %tmp42, %tmp42 + %tmp53 = fmul float %tmp43, %tmp43 + %tmp54 = fadd float %tmp53, %tmp52 + %tmp55 = fmul float %tmp44, %tmp44 + %tmp56 = fadd float %tmp54, %tmp55 + %tmp57 = call float @llvm.amdgcn.rsq.f32(float %tmp56) + %tmp58 = fmul float %tmp42, %tmp57 + %tmp59 = fmul float %tmp43, %tmp57 + %tmp60 = fmul float %tmp44, %tmp57 + %tmp61 = fmul float %tmp58, %tmp22 + %tmp62 = fmul float %tmp59, %tmp23 + %tmp63 = fadd float %tmp62, %tmp61 + %tmp64 = fmul float %tmp60, %tmp24 + %tmp65 = fadd float %tmp63, %tmp64 + %tmp66 = fsub float -0.000000e+00, %tmp25 + %tmp67 = fmul float %tmp65, %tmp51 + %tmp68 = fadd float %tmp67, %tmp66 + %tmp69 = fmul float %tmp26, %tmp68 + %tmp70 = fmul float %tmp27, %tmp68 + %tmp71 = call float @fabs(float %tmp69) + %tmp72 = fcmp olt float 0x3EE4F8B580000000, %tmp71 + %tmp73 = sext i1 %tmp72 to i32 + %tmp74 = bitcast i32 %tmp73 to float + %tmp75 = bitcast float %tmp74 to i32 + %tmp76 = icmp ne i32 %tmp75, 0 + br i1 %tmp76, label %IF, label %ENDIF IF: ; preds = %main_body - %78 = fsub float -0.000000e+00, %70 - %79 = call float @llvm.AMDIL.exp.(float %78) - %80 = fsub float -0.000000e+00, %79 - %81 = fadd float 1.000000e+00, %80 - %82 = fdiv float 1.000000e+00, %70 - %83 = fmul float %81, %82 - %84 = fmul float %32, %83 + %tmp77 = fsub float -0.000000e+00, %tmp69 + %tmp78 = call float @llvm.AMDIL.exp.(float %tmp77) + %tmp79 = fsub float -0.000000e+00, %tmp78 + %tmp80 = fadd float 1.000000e+00, %tmp79 + %tmp81 = fdiv float 1.000000e+00, %tmp69 + %tmp82 = fmul float %tmp80, %tmp81 + %tmp83 = fmul float %tmp31, %tmp82 br label %ENDIF -ENDIF: ; preds = %main_body, %IF - %temp4.0 = phi float [ %84, %IF ], [ %32, %main_body ] - %85 = call float @fabs(float %71) - %86 = fcmp olt float 0x3EE4F8B580000000, %85 - %87 = sext i1 %86 to i32 - %88 = bitcast i32 %87 to float - %89 = bitcast float %88 to i32 - %90 = icmp ne i32 %89, 0 - br i1 %90, label %IF25, label %ENDIF24 +ENDIF: ; preds = %IF, %main_body + %temp4.0 = phi float [ %tmp83, %IF ], [ %tmp31, %main_body ] + %tmp84 = call float @fabs(float %tmp70) + %tmp85 = fcmp olt float 0x3EE4F8B580000000, %tmp84 + %tmp86 = sext i1 %tmp85 to i32 + %tmp87 = bitcast i32 %tmp86 to float + %tmp88 = bitcast float %tmp87 to i32 + %tmp89 = icmp ne i32 %tmp88, 0 + br i1 %tmp89, label %IF25, label %ENDIF24 IF25: ; preds = %ENDIF - %91 = fsub float -0.000000e+00, %71 - %92 = call float @llvm.AMDIL.exp.(float %91) - %93 = fsub float -0.000000e+00, %92 - %94 = fadd float 1.000000e+00, %93 - %95 = fdiv float 1.000000e+00, %71 - %96 = fmul float %94, %95 - %97 = fmul float %36, %96 + %tmp90 = fsub float -0.000000e+00, %tmp70 + %tmp91 = call float @llvm.AMDIL.exp.(float %tmp90) + %tmp92 = fsub float -0.000000e+00, %tmp91 + %tmp93 = fadd float 1.000000e+00, %tmp92 + %tmp94 = fdiv float 1.000000e+00, %tmp70 + %tmp95 = fmul float %tmp93, %tmp94 + %tmp96 = fmul float %tmp35, %tmp95 br label %ENDIF24 -ENDIF24: ; preds = %ENDIF, %IF25 - %temp8.0 = phi float [ %97, %IF25 ], [ %36, %ENDIF ] - %98 = fmul float %29, %temp4.0 - %99 = fmul float %30, %temp4.0 - %100 = fmul float %31, %temp4.0 - %101 = fmul float %33, %temp8.0 - %102 = fadd float %101, %98 - %103 = fmul float %34, %temp8.0 - %104 = fadd float %103, %99 - %105 = fmul float %35, %temp8.0 - %106 = fadd float %105, %100 - %107 = call float @llvm.pow.f32(float %52, float %22) - %108 = fsub float -0.000000e+00, %102 - %109 = fmul float %108, %107 - %110 = fsub float -0.000000e+00, %104 - %111 = fmul float %110, %107 - %112 = fsub float -0.000000e+00, %106 - %113 = fmul float %112, %107 - %114 = call i32 @llvm.SI.packf16(float %109, float %111) - %115 = bitcast i32 %114 to float - %116 = call i32 @llvm.SI.packf16(float %113, float 1.000000e+00) - %117 = bitcast i32 %116 to float - call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %115, float %117, float %115, float %117) +ENDIF24: ; preds = %IF25, %ENDIF + %temp8.0 = phi float [ %tmp96, %IF25 ], [ %tmp35, %ENDIF ] + %tmp97 = fmul float %tmp28, %temp4.0 + %tmp98 = fmul float %tmp29, %temp4.0 + %tmp99 = fmul float %tmp30, %temp4.0 + %tmp100 = fmul float %tmp32, %temp8.0 + %tmp101 = fadd float %tmp100, %tmp97 + %tmp102 = fmul float %tmp33, %temp8.0 + %tmp103 = fadd float %tmp102, %tmp98 + %tmp104 = fmul float %tmp34, %temp8.0 + %tmp105 = fadd float %tmp104, %tmp99 + %tmp106 = call float @llvm.pow.f32(float %tmp51, float %tmp21) + %tmp107 = fsub float -0.000000e+00, %tmp101 + %tmp108 = fmul float %tmp107, %tmp106 + %tmp109 = fsub float -0.000000e+00, %tmp103 + %tmp110 = fmul float %tmp109, %tmp106 + %tmp111 = fsub float -0.000000e+00, %tmp105 + %tmp112 = fmul float %tmp111, %tmp106 + %tmp113 = call i32 @llvm.SI.packf16(float %tmp108, float %tmp110) + %tmp114 = bitcast i32 %tmp113 to float + %tmp115 = call i32 @llvm.SI.packf16(float %tmp112, float 1.000000e+00) + %tmp116 = bitcast i32 %tmp115 to float + call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp114, float %tmp116, float %tmp114, float %tmp116) ret void } ; We just want ot make sure the program doesn't crash ; CHECK-LABEL: {{^}}loop: - -define void @loop(<16 x i8> addrspace(2)* inreg, <16 x i8> addrspace(2)* inreg, <32 x i8> addrspace(2)* inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 { +define void @loop(<16 x i8> addrspace(2)* inreg %arg, <16 x i8> addrspace(2)* inreg %arg1, <32 x i8> addrspace(2)* inreg %arg2, i32 inreg %arg3, <2 x i32> %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <3 x i32> %arg7, <2 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, float %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19) #0 { main_body: - %20 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %0, i32 0 - %21 = load <16 x i8>, <16 x i8> addrspace(2)* %20, !tbaa !1 - %22 = call float @llvm.SI.load.const(<16 x i8> %21, i32 0) - %23 = call float @llvm.SI.load.const(<16 x i8> %21, i32 4) - %24 = call float @llvm.SI.load.const(<16 x i8> %21, i32 8) - %25 = call float @llvm.SI.load.const(<16 x i8> %21, i32 12) - %26 = fptosi float %25 to i32 - %27 = bitcast i32 %26 to float - %28 = bitcast float %27 to i32 + %tmp = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg, i32 0 + %tmp20 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0 + %tmp21 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 0) + %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 4) + %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 8) + %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 12) + %tmp25 = fptosi float %tmp24 to i32 + %tmp26 = bitcast i32 %tmp25 to float + %tmp27 = bitcast float %tmp26 to i32 br label %LOOP LOOP: ; preds = %ENDIF, %main_body - %temp4.0 = phi float [ %22, %main_body ], [ %temp5.0, %ENDIF ] - %temp5.0 = phi float [ %23, %main_body ], [ %temp6.0, %ENDIF ] - %temp6.0 = phi float [ %24, %main_body ], [ %temp4.0, %ENDIF ] - %temp8.0 = phi float [ 0.000000e+00, %main_body ], [ %37, %ENDIF ] - %29 = bitcast float %temp8.0 to i32 - %30 = icmp sge i32 %29, %28 - %31 = sext i1 %30 to i32 - %32 = bitcast i32 %31 to float - %33 = bitcast float %32 to i32 - %34 = icmp ne i32 %33, 0 - br i1 %34, label %IF, label %ENDIF + %temp4.0 = phi float [ %tmp21, %main_body ], [ %temp5.0, %ENDIF ] + %temp5.0 = phi float [ %tmp22, %main_body ], [ %temp6.0, %ENDIF ] + %temp6.0 = phi float [ %tmp23, %main_body ], [ %temp4.0, %ENDIF ] + %temp8.0 = phi float [ 0.000000e+00, %main_body ], [ %tmp36, %ENDIF ] + %tmp28 = bitcast float %temp8.0 to i32 + %tmp29 = icmp sge i32 %tmp28, %tmp27 + %tmp30 = sext i1 %tmp29 to i32 + %tmp31 = bitcast i32 %tmp30 to float + %tmp32 = bitcast float %tmp31 to i32 + %tmp33 = icmp ne i32 %tmp32, 0 + br i1 %tmp33, label %IF, label %ENDIF IF: ; preds = %LOOP call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %temp4.0, float %temp5.0, float %temp6.0, float 1.000000e+00) ret void ENDIF: ; preds = %LOOP - %35 = bitcast float %temp8.0 to i32 - %36 = add i32 %35, 1 - %37 = bitcast i32 %36 to float + %tmp34 = bitcast float %temp8.0 to i32 + %tmp35 = add i32 %tmp34, 1 + %tmp36 = bitcast i32 %tmp35 to float br label %LOOP } @@ -197,15 +196,6 @@ declare void @llvm.SI.export(i32, i32, i32, i32, i32, float, float, float, float) -attributes #0 = { "ShaderType"="0" } -attributes #1 = { nounwind readnone } -attributes #2 = { readonly } -attributes #3 = { readnone } -attributes #4 = { nounwind readonly } - -!0 = !{!"const", null} -!1 = !{!0, !0, i64 0, i32 1} - ; Function Attrs: nounwind readnone declare float @llvm.SI.fs.interp(i32, i32, i32, <2 x i32>) #1 @@ -218,8 +208,8 @@ ; Function Attrs: readnone declare float @llvm.AMDIL.exp.(float) #3 -; Function Attrs: nounwind readonly -declare float @llvm.pow.f32(float, float) #4 +; Function Attrs: nounwind readnone +declare float @llvm.pow.f32(float, float) #1 ; Function Attrs: nounwind readnone declare i32 @llvm.SI.packf16(float, float) #1 @@ -233,99 +223,93 @@ ; CHECK: image_sample ; CHECK: exp ; CHECK: s_endpgm -define void @sample_v3([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 { - +define void @sample_v3([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <32 x i8>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 { entry: - %21 = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %0, i64 0, i32 0 - %22 = load <16 x i8>, <16 x i8> addrspace(2)* %21, !tbaa !2 - %23 = call float @llvm.SI.load.const(<16 x i8> %22, i32 16) - %24 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 0 - %25 = load <32 x i8>, <32 x i8> addrspace(2)* %24, !tbaa !2 - %26 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 0 - %27 = load <16 x i8>, <16 x i8> addrspace(2)* %26, !tbaa !2 - %28 = fcmp oeq float %23, 0.0 - br i1 %28, label %if, label %else - -if: - %val.if = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> , <32 x i8> %25, <16 x i8> %27, i32 2) + %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg, i64 0, i32 0 + %tmp21 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0 + %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 16) + %tmp23 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 0 + %tmp24 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp23, !tbaa !0 + %tmp25 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 0 + %tmp26 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp25, !tbaa !0 + %tmp27 = fcmp oeq float %tmp22, 0.000000e+00 + br i1 %tmp27, label %if, label %else + +if: ; preds = %entry + %val.if = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> zeroinitializer, <32 x i8> %tmp24, <16 x i8> %tmp26, i32 2) %val.if.0 = extractelement <4 x float> %val.if, i32 0 %val.if.1 = extractelement <4 x float> %val.if, i32 1 %val.if.2 = extractelement <4 x float> %val.if, i32 2 br label %endif -else: - %val.else = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> , <32 x i8> %25, <16 x i8> %27, i32 2) +else: ; preds = %entry + %val.else = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> , <32 x i8> %tmp24, <16 x i8> %tmp26, i32 2) %val.else.0 = extractelement <4 x float> %val.else, i32 0 %val.else.1 = extractelement <4 x float> %val.else, i32 1 %val.else.2 = extractelement <4 x float> %val.else, i32 2 br label %endif -endif: - %val.0 = phi float [%val.if.0, %if], [%val.else.0, %else] - %val.1 = phi float [%val.if.1, %if], [%val.else.1, %else] - %val.2 = phi float [%val.if.2, %if], [%val.else.2, %else] - call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %val.0, float %val.1, float %val.2, float 0.0) +endif: ; preds = %else, %if + %val.0 = phi float [ %val.if.0, %if ], [ %val.else.0, %else ] + %val.1 = phi float [ %val.if.1, %if ], [ %val.else.1, %else ] + %val.2 = phi float [ %val.if.2, %if ], [ %val.else.2, %else ] + call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %val.0, float %val.1, float %val.2, float 0.000000e+00) ret void } -!2 = !{!"const", null, i32 1} - ; CHECK-LABEL: {{^}}copy1: ; CHECK: buffer_load_dword ; CHECK: v_add ; CHECK: s_endpgm define void @copy1(float addrspace(1)* %out, float addrspace(1)* %in0) { entry: - %0 = load float, float addrspace(1)* %in0 - %1 = fcmp oeq float %0, 0.0 - br i1 %1, label %if0, label %endif + %tmp = load float, float addrspace(1)* %in0 + %tmp1 = fcmp oeq float %tmp, 0.000000e+00 + br i1 %tmp1, label %if0, label %endif -if0: - %2 = bitcast float %0 to i32 - %3 = fcmp olt float %0, 0.0 - br i1 %3, label %if1, label %endif +if0: ; preds = %entry + %tmp2 = bitcast float %tmp to i32 + %tmp3 = fcmp olt float %tmp, 0.000000e+00 + br i1 %tmp3, label %if1, label %endif -if1: - %4 = add i32 %2, 1 +if1: ; preds = %if0 + %tmp4 = add i32 %tmp2, 1 br label %endif -endif: - %5 = phi i32 [ 0, %entry ], [ %2, %if0 ], [ %4, %if1 ] - %6 = bitcast i32 %5 to float - store float %6, float addrspace(1)* %out +endif: ; preds = %if1, %if0, %entry + %tmp5 = phi i32 [ 0, %entry ], [ %tmp2, %if0 ], [ %tmp4, %if1 ] + %tmp6 = bitcast i32 %tmp5 to float + store float %tmp6, float addrspace(1)* %out ret void } ; This test is just checking that we don't crash / assertion fail. ; CHECK-LABEL: {{^}}copy2: ; CHECK: s_endpgm - -define void @copy2([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 { +define void @copy2([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <32 x i8>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 { entry: br label %LOOP68 -LOOP68: +LOOP68: ; preds = %ENDIF69, %entry %temp4.7 = phi float [ 0.000000e+00, %entry ], [ %v, %ENDIF69 ] %t = phi i32 [ 20, %entry ], [ %x, %ENDIF69 ] %g = icmp eq i32 0, %t %l = bitcast float %temp4.7 to i32 br i1 %g, label %IF70, label %ENDIF69 -IF70: +IF70: ; preds = %LOOP68 %q = icmp ne i32 %l, 13 %temp.8 = select i1 %q, float 1.000000e+00, float 0.000000e+00 call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %temp.8, float 0.000000e+00, float 0.000000e+00, float 1.000000e+00) ret void -ENDIF69: +ENDIF69: ; preds = %LOOP68 %u = add i32 %l, %t %v = bitcast i32 %u to float %x = add i32 %t, -1 br label %LOOP68 } -attributes #0 = { "ShaderType"="0" } - ; This test checks that image_sample resource descriptors aren't loaded into ; vgprs. The verifier will fail if this happens. ; CHECK-LABEL:{{^}}sample_rsrc: @@ -335,12 +319,12 @@ define void @sample_rsrc([6 x <16 x i8>] addrspace(2)* byval %arg, [17 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <4 x i32>] addrspace(2)* byval %arg2, [32 x <8 x i32>] addrspace(2)* byval %arg3, float inreg %arg4, i32 inreg %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <2 x i32> %arg8, <3 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, <2 x i32> %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, i32 %arg19, float %arg20, float %arg21) #0 { bb: %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg1, i32 0, i32 0 - %tmp22 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0 + %tmp22 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !2 %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp22, i32 16) %tmp25 = getelementptr [32 x <8 x i32>], [32 x <8 x i32>] addrspace(2)* %arg3, i32 0, i32 0 - %tmp26 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp25, !tbaa !0 + %tmp26 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp25, !tbaa !2 %tmp27 = getelementptr [16 x <4 x i32>], [16 x <4 x i32>] addrspace(2)* %arg2, i32 0, i32 0 - %tmp28 = load <4 x i32>, <4 x i32> addrspace(2)* %tmp27, !tbaa !0 + %tmp28 = load <4 x i32>, <4 x i32> addrspace(2)* %tmp27, !tbaa !2 %tmp29 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg5, <2 x i32> %arg7) %tmp30 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg5, <2 x i32> %arg7) %tmp31 = bitcast float %tmp23 to i32 @@ -377,3 +361,9 @@ attributes #0 = { "ShaderType"="0" "unsafe-fp-math"="true" } attributes #1 = { nounwind readnone } +attributes #2 = { readonly } +attributes #3 = { readnone } + +!0 = !{!1, !1, i64 0, i32 1} +!1 = !{!"const", null} +!2 = !{!1, !1, i64 0} Index: test/CodeGen/AMDGPU/si-lod-bias.ll =================================================================== --- test/CodeGen/AMDGPU/si-lod-bias.ll +++ test/CodeGen/AMDGPU/si-lod-bias.ll @@ -6,31 +6,30 @@ ; CHECK: {{^}}main: ; CHECK: image_sample_b v{{\[[0-9]:[0-9]\]}}, 15, 0, 0, 0, 0, 0, 0, 0, v{{\[[0-9]:[0-9]\]}} - -define void @main(<16 x i8> addrspace(2)* inreg, <16 x i8> addrspace(2)* inreg, <32 x i8> addrspace(2)* inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 { +define void @main(<16 x i8> addrspace(2)* inreg %arg, <16 x i8> addrspace(2)* inreg %arg1, <32 x i8> addrspace(2)* inreg %arg2, i32 inreg %arg3, <2 x i32> %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <3 x i32> %arg7, <2 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, float %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19) #0 { main_body: - %20 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %0, i32 0 - %21 = load <16 x i8>, <16 x i8> addrspace(2)* %20, !tbaa !1 - %22 = call float @llvm.SI.load.const(<16 x i8> %21, i32 16) - %23 = getelementptr <32 x i8>, <32 x i8> addrspace(2)* %2, i32 0 - %24 = load <32 x i8>, <32 x i8> addrspace(2)* %23, !tbaa !1 - %25 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %1, i32 0 - %26 = load <16 x i8>, <16 x i8> addrspace(2)* %25, !tbaa !1 - %27 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %3, <2 x i32> %5) - %28 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %3, <2 x i32> %5) - %29 = bitcast float %22 to i32 - %30 = bitcast float %27 to i32 - %31 = bitcast float %28 to i32 - %32 = insertelement <4 x i32> undef, i32 %29, i32 0 - %33 = insertelement <4 x i32> %32, i32 %30, i32 1 - %34 = insertelement <4 x i32> %33, i32 %31, i32 2 - %35 = insertelement <4 x i32> %34, i32 undef, i32 3 - %36 = call <4 x float> @llvm.SI.sampleb.v4i32(<4 x i32> %35, <32 x i8> %24, <16 x i8> %26, i32 2) - %37 = extractelement <4 x float> %36, i32 0 - %38 = extractelement <4 x float> %36, i32 1 - %39 = extractelement <4 x float> %36, i32 2 - %40 = extractelement <4 x float> %36, i32 3 - call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %37, float %38, float %39, float %40) + %tmp = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg, i32 0 + %tmp20 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0 + %tmp21 = call float @llvm.SI.load.const(<16 x i8> %tmp20, i32 16) + %tmp22 = getelementptr <32 x i8>, <32 x i8> addrspace(2)* %arg2, i32 0 + %tmp23 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp22, !tbaa !0 + %tmp24 = getelementptr <16 x i8>, <16 x i8> addrspace(2)* %arg1, i32 0 + %tmp25 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp24, !tbaa !0 + %tmp26 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg3, <2 x i32> %arg5) + %tmp27 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg3, <2 x i32> %arg5) + %tmp28 = bitcast float %tmp21 to i32 + %tmp29 = bitcast float %tmp26 to i32 + %tmp30 = bitcast float %tmp27 to i32 + %tmp31 = insertelement <4 x i32> undef, i32 %tmp28, i32 0 + %tmp32 = insertelement <4 x i32> %tmp31, i32 %tmp29, i32 1 + %tmp33 = insertelement <4 x i32> %tmp32, i32 %tmp30, i32 2 + %tmp34 = insertelement <4 x i32> %tmp33, i32 undef, i32 3 + %tmp35 = call <4 x float> @llvm.SI.sampleb.v4i32(<4 x i32> %tmp34, <32 x i8> %tmp23, <16 x i8> %tmp25, i32 2) + %tmp36 = extractelement <4 x float> %tmp35, i32 0 + %tmp37 = extractelement <4 x float> %tmp35, i32 1 + %tmp38 = extractelement <4 x float> %tmp35, i32 2 + %tmp39 = extractelement <4 x float> %tmp35, i32 3 + call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %tmp36, float %tmp37, float %tmp38, float %tmp39) ret void } @@ -48,5 +47,5 @@ attributes #0 = { "ShaderType"="0" } attributes #1 = { nounwind readnone } -!0 = !{!"const", null} -!1 = !{!0, !0, i64 0, i32 1} +!0 = !{!1, !1, i64 0, i32 1} +!1 = !{!"const", null} Index: test/CodeGen/AMDGPU/si-scheduler.ll =================================================================== --- test/CodeGen/AMDGPU/si-scheduler.ll +++ test/CodeGen/AMDGPU/si-scheduler.ll @@ -11,30 +11,28 @@ ; CHECK: s_waitcnt vmcnt(0) ; CHECK: exp ; CHECK: s_endpgm - -define void @main([6 x <16 x i8>] addrspace(2)* byval, [17 x <16 x i8>] addrspace(2)* byval, [17 x <4 x i32>] addrspace(2)* byval, [34 x <8 x i32>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, -<2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, i32, float, float) #0 { +define void @main([6 x <16 x i8>] addrspace(2)* byval %arg, [17 x <16 x i8>] addrspace(2)* byval %arg1, [17 x <4 x i32>] addrspace(2)* byval %arg2, [34 x <8 x i32>] addrspace(2)* byval %arg3, float inreg %arg4, i32 inreg %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <2 x i32> %arg8, <3 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, <2 x i32> %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, i32 %arg19, float %arg20, float %arg21) #0 { main_body: - %22 = bitcast [34 x <8 x i32>] addrspace(2)* %3 to <32 x i8> addrspace(2)* - %23 = load <32 x i8>, <32 x i8> addrspace(2)* %22, align 32, !tbaa !0 - %24 = bitcast [17 x <4 x i32>] addrspace(2)* %2 to <16 x i8> addrspace(2)* - %25 = load <16 x i8>, <16 x i8> addrspace(2)* %24, align 16, !tbaa !0 - %26 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %5, <2 x i32> %11) - %27 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %5, <2 x i32> %11) - %28 = bitcast float %26 to i32 - %29 = bitcast float %27 to i32 - %30 = insertelement <2 x i32> undef, i32 %28, i32 0 - %31 = insertelement <2 x i32> %30, i32 %29, i32 1 - %32 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %31, <32 x i8> %23, <16 x i8> %25, i32 2) - %33 = extractelement <4 x float> %32, i32 0 - %34 = extractelement <4 x float> %32, i32 1 - %35 = extractelement <4 x float> %32, i32 2 - %36 = extractelement <4 x float> %32, i32 3 - %37 = call i32 @llvm.SI.packf16(float %33, float %34) - %38 = bitcast i32 %37 to float - %39 = call i32 @llvm.SI.packf16(float %35, float %36) - %40 = bitcast i32 %39 to float - call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %38, float %40, float %38, float %40) + %tmp = bitcast [34 x <8 x i32>] addrspace(2)* %arg3 to <32 x i8> addrspace(2)* + %tmp22 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp, align 32, !tbaa !0 + %tmp23 = bitcast [17 x <4 x i32>] addrspace(2)* %arg2 to <16 x i8> addrspace(2)* + %tmp24 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp23, align 16, !tbaa !0 + %tmp25 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg5, <2 x i32> %arg11) + %tmp26 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg5, <2 x i32> %arg11) + %tmp27 = bitcast float %tmp25 to i32 + %tmp28 = bitcast float %tmp26 to i32 + %tmp29 = insertelement <2 x i32> undef, i32 %tmp27, i32 0 + %tmp30 = insertelement <2 x i32> %tmp29, i32 %tmp28, i32 1 + %tmp31 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp30, <32 x i8> %tmp22, <16 x i8> %tmp24, i32 2) + %tmp32 = extractelement <4 x float> %tmp31, i32 0 + %tmp33 = extractelement <4 x float> %tmp31, i32 1 + %tmp34 = extractelement <4 x float> %tmp31, i32 2 + %tmp35 = extractelement <4 x float> %tmp31, i32 3 + %tmp36 = call i32 @llvm.SI.packf16(float %tmp32, float %tmp33) + %tmp37 = bitcast i32 %tmp36 to float + %tmp38 = call i32 @llvm.SI.packf16(float %tmp34, float %tmp35) + %tmp39 = bitcast i32 %tmp38 to float + call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp37, float %tmp39, float %tmp37, float %tmp39) ret void } @@ -52,4 +50,5 @@ attributes #0 = { "ShaderType"="0" "enable-no-nans-fp-math"="true" } attributes #1 = { nounwind readnone } -!0 = !{!"const", null, i32 1} +!0 = !{!1, !1, i64 0, i32 1} +!1 = !{!"const", null} Index: test/CodeGen/AMDGPU/si-sgpr-spill.ll =================================================================== --- test/CodeGen/AMDGPU/si-sgpr-spill.ll +++ test/CodeGen/AMDGPU/si-sgpr-spill.ll @@ -4,6 +4,7 @@ ; These tests check that the compiler won't crash when it needs to spill ; SGPRs. + @ddxy_lds = external addrspace(3) global [64 x i32] ; CHECK-LABEL: {{^}}main: @@ -21,1531 +22,1531 @@ ; Writing to M0 from an SMRD instruction will hang the GPU. ; CHECK-NOT: s_buffer_load_dword m0 ; CHECK: s_endpgm -define void @main([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #1 { +define void @main([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <32 x i8>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 { main_body: - %21 = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %0, i64 0, i32 0 - %22 = load <16 x i8>, <16 x i8> addrspace(2)* %21, !tbaa !0 - %23 = call float @llvm.SI.load.const(<16 x i8> %22, i32 96) - %24 = call float @llvm.SI.load.const(<16 x i8> %22, i32 100) - %25 = call float @llvm.SI.load.const(<16 x i8> %22, i32 104) - %26 = call float @llvm.SI.load.const(<16 x i8> %22, i32 112) - %27 = call float @llvm.SI.load.const(<16 x i8> %22, i32 116) - %28 = call float @llvm.SI.load.const(<16 x i8> %22, i32 120) - %29 = call float @llvm.SI.load.const(<16 x i8> %22, i32 128) - %30 = call float @llvm.SI.load.const(<16 x i8> %22, i32 132) - %31 = call float @llvm.SI.load.const(<16 x i8> %22, i32 140) - %32 = call float @llvm.SI.load.const(<16 x i8> %22, i32 144) - %33 = call float @llvm.SI.load.const(<16 x i8> %22, i32 160) - %34 = call float @llvm.SI.load.const(<16 x i8> %22, i32 176) - %35 = call float @llvm.SI.load.const(<16 x i8> %22, i32 180) - %36 = call float @llvm.SI.load.const(<16 x i8> %22, i32 184) - %37 = call float @llvm.SI.load.const(<16 x i8> %22, i32 192) - %38 = call float @llvm.SI.load.const(<16 x i8> %22, i32 196) - %39 = call float @llvm.SI.load.const(<16 x i8> %22, i32 200) - %40 = call float @llvm.SI.load.const(<16 x i8> %22, i32 208) - %41 = call float @llvm.SI.load.const(<16 x i8> %22, i32 212) - %42 = call float @llvm.SI.load.const(<16 x i8> %22, i32 216) - %43 = call float @llvm.SI.load.const(<16 x i8> %22, i32 224) - %44 = call float @llvm.SI.load.const(<16 x i8> %22, i32 240) - %45 = call float @llvm.SI.load.const(<16 x i8> %22, i32 244) - %46 = call float @llvm.SI.load.const(<16 x i8> %22, i32 248) - %47 = call float @llvm.SI.load.const(<16 x i8> %22, i32 256) - %48 = call float @llvm.SI.load.const(<16 x i8> %22, i32 272) - %49 = call float @llvm.SI.load.const(<16 x i8> %22, i32 276) - %50 = call float @llvm.SI.load.const(<16 x i8> %22, i32 280) - %51 = call float @llvm.SI.load.const(<16 x i8> %22, i32 288) - %52 = call float @llvm.SI.load.const(<16 x i8> %22, i32 292) - %53 = call float @llvm.SI.load.const(<16 x i8> %22, i32 296) - %54 = call float @llvm.SI.load.const(<16 x i8> %22, i32 304) - %55 = call float @llvm.SI.load.const(<16 x i8> %22, i32 308) - %56 = call float @llvm.SI.load.const(<16 x i8> %22, i32 312) - %57 = call float @llvm.SI.load.const(<16 x i8> %22, i32 368) - %58 = call float @llvm.SI.load.const(<16 x i8> %22, i32 372) - %59 = call float @llvm.SI.load.const(<16 x i8> %22, i32 376) - %60 = call float @llvm.SI.load.const(<16 x i8> %22, i32 384) - %61 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 0 - %62 = load <32 x i8>, <32 x i8> addrspace(2)* %61, !tbaa !0 - %63 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 0 - %64 = load <16 x i8>, <16 x i8> addrspace(2)* %63, !tbaa !0 - %65 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 1 - %66 = load <32 x i8>, <32 x i8> addrspace(2)* %65, !tbaa !0 - %67 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 1 - %68 = load <16 x i8>, <16 x i8> addrspace(2)* %67, !tbaa !0 - %69 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 2 - %70 = load <32 x i8>, <32 x i8> addrspace(2)* %69, !tbaa !0 - %71 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 2 - %72 = load <16 x i8>, <16 x i8> addrspace(2)* %71, !tbaa !0 - %73 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 3 - %74 = load <32 x i8>, <32 x i8> addrspace(2)* %73, !tbaa !0 - %75 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 3 - %76 = load <16 x i8>, <16 x i8> addrspace(2)* %75, !tbaa !0 - %77 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 4 - %78 = load <32 x i8>, <32 x i8> addrspace(2)* %77, !tbaa !0 - %79 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 4 - %80 = load <16 x i8>, <16 x i8> addrspace(2)* %79, !tbaa !0 - %81 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 5 - %82 = load <32 x i8>, <32 x i8> addrspace(2)* %81, !tbaa !0 - %83 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 5 - %84 = load <16 x i8>, <16 x i8> addrspace(2)* %83, !tbaa !0 - %85 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 6 - %86 = load <32 x i8>, <32 x i8> addrspace(2)* %85, !tbaa !0 - %87 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 6 - %88 = load <16 x i8>, <16 x i8> addrspace(2)* %87, !tbaa !0 - %89 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 7 - %90 = load <32 x i8>, <32 x i8> addrspace(2)* %89, !tbaa !0 - %91 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 7 - %92 = load <16 x i8>, <16 x i8> addrspace(2)* %91, !tbaa !0 - %93 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %4, <2 x i32> %6) - %94 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %4, <2 x i32> %6) - %95 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %4, <2 x i32> %6) - %96 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %4, <2 x i32> %6) - %97 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %4, <2 x i32> %6) - %98 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %4, <2 x i32> %6) - %99 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %4, <2 x i32> %6) - %100 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %4, <2 x i32> %6) - %101 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %4, <2 x i32> %6) - %102 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %4, <2 x i32> %6) - %103 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %4, <2 x i32> %6) - %104 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %4, <2 x i32> %6) - %105 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %4, <2 x i32> %6) - %106 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %4, <2 x i32> %6) - %107 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %4, <2 x i32> %6) - %108 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %4, <2 x i32> %6) - %109 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %4, <2 x i32> %6) - %110 = call i32 @llvm.SI.tid() - %111 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %110 - %112 = bitcast float %93 to i32 - store i32 %112, i32 addrspace(3)* %111 - %113 = bitcast float %94 to i32 - store i32 %113, i32 addrspace(3)* %111 - %114 = call i32 @llvm.SI.tid() - %115 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %114 - %116 = and i32 %114, -4 - %117 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %116 - %118 = add i32 %116, 1 - %119 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %118 - %120 = bitcast float %93 to i32 - store i32 %120, i32 addrspace(3)* %115 - %121 = load i32, i32 addrspace(3)* %117 - %122 = bitcast i32 %121 to float - %123 = load i32, i32 addrspace(3)* %119 - %124 = bitcast i32 %123 to float - %125 = fsub float %124, %122 - %126 = bitcast float %94 to i32 - store i32 %126, i32 addrspace(3)* %115 - %127 = load i32, i32 addrspace(3)* %117 - %128 = bitcast i32 %127 to float - %129 = load i32, i32 addrspace(3)* %119 - %130 = bitcast i32 %129 to float - %131 = fsub float %130, %128 - %132 = insertelement <4 x float> undef, float %125, i32 0 - %133 = insertelement <4 x float> %132, float %131, i32 1 - %134 = insertelement <4 x float> %133, float %131, i32 2 - %135 = insertelement <4 x float> %134, float %131, i32 3 - %136 = extractelement <4 x float> %135, i32 0 - %137 = extractelement <4 x float> %135, i32 1 - %138 = fmul float %60, %93 - %139 = fmul float %60, %94 - %140 = fmul float %60, %94 - %141 = fmul float %60, %94 - %142 = call i32 @llvm.SI.tid() - %143 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %142 - %144 = bitcast float %138 to i32 - store i32 %144, i32 addrspace(3)* %143 - %145 = bitcast float %139 to i32 - store i32 %145, i32 addrspace(3)* %143 - %146 = bitcast float %140 to i32 - store i32 %146, i32 addrspace(3)* %143 - %147 = bitcast float %141 to i32 - store i32 %147, i32 addrspace(3)* %143 - %148 = call i32 @llvm.SI.tid() - %149 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %148 - %150 = and i32 %148, -4 - %151 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %150 - %152 = add i32 %150, 2 - %153 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %152 - %154 = bitcast float %138 to i32 - store i32 %154, i32 addrspace(3)* %149 - %155 = load i32, i32 addrspace(3)* %151 - %156 = bitcast i32 %155 to float - %157 = load i32, i32 addrspace(3)* %153 - %158 = bitcast i32 %157 to float - %159 = fsub float %158, %156 - %160 = bitcast float %139 to i32 - store i32 %160, i32 addrspace(3)* %149 - %161 = load i32, i32 addrspace(3)* %151 - %162 = bitcast i32 %161 to float - %163 = load i32, i32 addrspace(3)* %153 - %164 = bitcast i32 %163 to float - %165 = fsub float %164, %162 - %166 = bitcast float %140 to i32 - store i32 %166, i32 addrspace(3)* %149 - %167 = load i32, i32 addrspace(3)* %151 - %168 = bitcast i32 %167 to float - %169 = load i32, i32 addrspace(3)* %153 - %170 = bitcast i32 %169 to float - %171 = fsub float %170, %168 - %172 = bitcast float %141 to i32 - store i32 %172, i32 addrspace(3)* %149 - %173 = load i32, i32 addrspace(3)* %151 - %174 = bitcast i32 %173 to float - %175 = load i32, i32 addrspace(3)* %153 - %176 = bitcast i32 %175 to float - %177 = fsub float %176, %174 - %178 = insertelement <4 x float> undef, float %159, i32 0 - %179 = insertelement <4 x float> %178, float %165, i32 1 - %180 = insertelement <4 x float> %179, float %171, i32 2 - %181 = insertelement <4 x float> %180, float %177, i32 3 - %182 = extractelement <4 x float> %181, i32 0 - %183 = extractelement <4 x float> %181, i32 1 - %184 = fdiv float 1.000000e+00, %97 - %185 = fmul float %33, %184 - %186 = fcmp uge float 1.000000e+00, %185 - %187 = select i1 %186, float %185, float 1.000000e+00 - %188 = fmul float %187, %30 - %189 = call float @ceil(float %188) - %190 = fcmp uge float 3.000000e+00, %189 - %191 = select i1 %190, float 3.000000e+00, float %189 - %192 = fdiv float 1.000000e+00, %191 - %193 = fdiv float 1.000000e+00, %30 - %194 = fmul float %191, %193 - %195 = fmul float %31, %194 - %196 = fmul float %95, %95 - %197 = fmul float %96, %96 - %198 = fadd float %197, %196 - %199 = fmul float %97, %97 - %200 = fadd float %198, %199 - %201 = call float @llvm.amdgcn.rsq.f32(float %200) - %202 = fmul float %95, %201 - %203 = fmul float %96, %201 - %204 = fmul float %202, %29 - %205 = fmul float %203, %29 - %206 = fmul float %204, -1.000000e+00 - %207 = fmul float %205, 1.000000e+00 - %208 = fmul float %206, %32 - %209 = fmul float %207, %32 - %210 = fsub float -0.000000e+00, %208 - %211 = fadd float %93, %210 - %212 = fsub float -0.000000e+00, %209 - %213 = fadd float %94, %212 - %214 = fmul float %206, %192 - %215 = fmul float %207, %192 - %216 = fmul float -1.000000e+00, %192 - %217 = bitcast float %136 to i32 - %218 = bitcast float %182 to i32 - %219 = bitcast float %137 to i32 - %220 = bitcast float %183 to i32 - %221 = insertelement <8 x i32> undef, i32 %217, i32 0 - %222 = insertelement <8 x i32> %221, i32 %218, i32 1 - %223 = insertelement <8 x i32> %222, i32 %219, i32 2 - %224 = insertelement <8 x i32> %223, i32 %220, i32 3 + %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg, i64 0, i32 0 + %tmp21 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0 + %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 96) + %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 100) + %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 104) + %tmp25 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 112) + %tmp26 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 116) + %tmp27 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 120) + %tmp28 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 128) + %tmp29 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 132) + %tmp30 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 140) + %tmp31 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 144) + %tmp32 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 160) + %tmp33 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 176) + %tmp34 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 180) + %tmp35 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 184) + %tmp36 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 192) + %tmp37 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 196) + %tmp38 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 200) + %tmp39 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 208) + %tmp40 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 212) + %tmp41 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 216) + %tmp42 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 224) + %tmp43 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 240) + %tmp44 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 244) + %tmp45 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 248) + %tmp46 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 256) + %tmp47 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 272) + %tmp48 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 276) + %tmp49 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 280) + %tmp50 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 288) + %tmp51 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 292) + %tmp52 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 296) + %tmp53 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 304) + %tmp54 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 308) + %tmp55 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 312) + %tmp56 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 368) + %tmp57 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 372) + %tmp58 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 376) + %tmp59 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 384) + %tmp60 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 0 + %tmp61 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp60, !tbaa !0 + %tmp62 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 0 + %tmp63 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp62, !tbaa !0 + %tmp64 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 1 + %tmp65 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp64, !tbaa !0 + %tmp66 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 1 + %tmp67 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp66, !tbaa !0 + %tmp68 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 2 + %tmp69 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp68, !tbaa !0 + %tmp70 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 2 + %tmp71 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp70, !tbaa !0 + %tmp72 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 3 + %tmp73 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp72, !tbaa !0 + %tmp74 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 3 + %tmp75 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp74, !tbaa !0 + %tmp76 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 4 + %tmp77 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp76, !tbaa !0 + %tmp78 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 4 + %tmp79 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp78, !tbaa !0 + %tmp80 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 5 + %tmp81 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp80, !tbaa !0 + %tmp82 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 5 + %tmp83 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp82, !tbaa !0 + %tmp84 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 6 + %tmp85 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp84, !tbaa !0 + %tmp86 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 6 + %tmp87 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp86, !tbaa !0 + %tmp88 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 7 + %tmp89 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp88, !tbaa !0 + %tmp90 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 7 + %tmp91 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp90, !tbaa !0 + %tmp92 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg4, <2 x i32> %arg6) + %tmp93 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg4, <2 x i32> %arg6) + %tmp94 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %arg4, <2 x i32> %arg6) + %tmp95 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %arg4, <2 x i32> %arg6) + %tmp96 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %arg4, <2 x i32> %arg6) + %tmp97 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %arg4, <2 x i32> %arg6) + %tmp98 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %arg4, <2 x i32> %arg6) + %tmp99 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %arg4, <2 x i32> %arg6) + %tmp100 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %arg4, <2 x i32> %arg6) + %tmp101 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %arg4, <2 x i32> %arg6) + %tmp102 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %arg4, <2 x i32> %arg6) + %tmp103 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %arg4, <2 x i32> %arg6) + %tmp104 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %arg4, <2 x i32> %arg6) + %tmp105 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %arg4, <2 x i32> %arg6) + %tmp106 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %arg4, <2 x i32> %arg6) + %tmp107 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %arg4, <2 x i32> %arg6) + %tmp108 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %arg4, <2 x i32> %arg6) + %tmp109 = call i32 @llvm.SI.tid() + %tmp110 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp109 + %tmp111 = bitcast float %tmp92 to i32 + store i32 %tmp111, i32 addrspace(3)* %tmp110 + %tmp112 = bitcast float %tmp93 to i32 + store i32 %tmp112, i32 addrspace(3)* %tmp110 + %tmp113 = call i32 @llvm.SI.tid() + %tmp114 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp113 + %tmp115 = and i32 %tmp113, -4 + %tmp116 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp115 + %tmp117 = add i32 %tmp115, 1 + %tmp118 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp117 + %tmp119 = bitcast float %tmp92 to i32 + store i32 %tmp119, i32 addrspace(3)* %tmp114 + %tmp120 = load i32, i32 addrspace(3)* %tmp116 + %tmp121 = bitcast i32 %tmp120 to float + %tmp122 = load i32, i32 addrspace(3)* %tmp118 + %tmp123 = bitcast i32 %tmp122 to float + %tmp124 = fsub float %tmp123, %tmp121 + %tmp125 = bitcast float %tmp93 to i32 + store i32 %tmp125, i32 addrspace(3)* %tmp114 + %tmp126 = load i32, i32 addrspace(3)* %tmp116 + %tmp127 = bitcast i32 %tmp126 to float + %tmp128 = load i32, i32 addrspace(3)* %tmp118 + %tmp129 = bitcast i32 %tmp128 to float + %tmp130 = fsub float %tmp129, %tmp127 + %tmp131 = insertelement <4 x float> undef, float %tmp124, i32 0 + %tmp132 = insertelement <4 x float> %tmp131, float %tmp130, i32 1 + %tmp133 = insertelement <4 x float> %tmp132, float %tmp130, i32 2 + %tmp134 = insertelement <4 x float> %tmp133, float %tmp130, i32 3 + %tmp135 = extractelement <4 x float> %tmp134, i32 0 + %tmp136 = extractelement <4 x float> %tmp134, i32 1 + %tmp137 = fmul float %tmp59, %tmp92 + %tmp138 = fmul float %tmp59, %tmp93 + %tmp139 = fmul float %tmp59, %tmp93 + %tmp140 = fmul float %tmp59, %tmp93 + %tmp141 = call i32 @llvm.SI.tid() + %tmp142 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp141 + %tmp143 = bitcast float %tmp137 to i32 + store i32 %tmp143, i32 addrspace(3)* %tmp142 + %tmp144 = bitcast float %tmp138 to i32 + store i32 %tmp144, i32 addrspace(3)* %tmp142 + %tmp145 = bitcast float %tmp139 to i32 + store i32 %tmp145, i32 addrspace(3)* %tmp142 + %tmp146 = bitcast float %tmp140 to i32 + store i32 %tmp146, i32 addrspace(3)* %tmp142 + %tmp147 = call i32 @llvm.SI.tid() + %tmp148 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp147 + %tmp149 = and i32 %tmp147, -4 + %tmp150 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp149 + %tmp151 = add i32 %tmp149, 2 + %tmp152 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp151 + %tmp153 = bitcast float %tmp137 to i32 + store i32 %tmp153, i32 addrspace(3)* %tmp148 + %tmp154 = load i32, i32 addrspace(3)* %tmp150 + %tmp155 = bitcast i32 %tmp154 to float + %tmp156 = load i32, i32 addrspace(3)* %tmp152 + %tmp157 = bitcast i32 %tmp156 to float + %tmp158 = fsub float %tmp157, %tmp155 + %tmp159 = bitcast float %tmp138 to i32 + store i32 %tmp159, i32 addrspace(3)* %tmp148 + %tmp160 = load i32, i32 addrspace(3)* %tmp150 + %tmp161 = bitcast i32 %tmp160 to float + %tmp162 = load i32, i32 addrspace(3)* %tmp152 + %tmp163 = bitcast i32 %tmp162 to float + %tmp164 = fsub float %tmp163, %tmp161 + %tmp165 = bitcast float %tmp139 to i32 + store i32 %tmp165, i32 addrspace(3)* %tmp148 + %tmp166 = load i32, i32 addrspace(3)* %tmp150 + %tmp167 = bitcast i32 %tmp166 to float + %tmp168 = load i32, i32 addrspace(3)* %tmp152 + %tmp169 = bitcast i32 %tmp168 to float + %tmp170 = fsub float %tmp169, %tmp167 + %tmp171 = bitcast float %tmp140 to i32 + store i32 %tmp171, i32 addrspace(3)* %tmp148 + %tmp172 = load i32, i32 addrspace(3)* %tmp150 + %tmp173 = bitcast i32 %tmp172 to float + %tmp174 = load i32, i32 addrspace(3)* %tmp152 + %tmp175 = bitcast i32 %tmp174 to float + %tmp176 = fsub float %tmp175, %tmp173 + %tmp177 = insertelement <4 x float> undef, float %tmp158, i32 0 + %tmp178 = insertelement <4 x float> %tmp177, float %tmp164, i32 1 + %tmp179 = insertelement <4 x float> %tmp178, float %tmp170, i32 2 + %tmp180 = insertelement <4 x float> %tmp179, float %tmp176, i32 3 + %tmp181 = extractelement <4 x float> %tmp180, i32 0 + %tmp182 = extractelement <4 x float> %tmp180, i32 1 + %tmp183 = fdiv float 1.000000e+00, %tmp96 + %tmp184 = fmul float %tmp32, %tmp183 + %tmp185 = fcmp uge float 1.000000e+00, %tmp184 + %tmp186 = select i1 %tmp185, float %tmp184, float 1.000000e+00 + %tmp187 = fmul float %tmp186, %tmp29 + %tmp188 = call float @ceil(float %tmp187) + %tmp189 = fcmp uge float 3.000000e+00, %tmp188 + %tmp190 = select i1 %tmp189, float 3.000000e+00, float %tmp188 + %tmp191 = fdiv float 1.000000e+00, %tmp190 + %tmp192 = fdiv float 1.000000e+00, %tmp29 + %tmp193 = fmul float %tmp190, %tmp192 + %tmp194 = fmul float %tmp30, %tmp193 + %tmp195 = fmul float %tmp94, %tmp94 + %tmp196 = fmul float %tmp95, %tmp95 + %tmp197 = fadd float %tmp196, %tmp195 + %tmp198 = fmul float %tmp96, %tmp96 + %tmp199 = fadd float %tmp197, %tmp198 + %tmp200 = call float @llvm.amdgcn.rsq.f32(float %tmp199) + %tmp201 = fmul float %tmp94, %tmp200 + %tmp202 = fmul float %tmp95, %tmp200 + %tmp203 = fmul float %tmp201, %tmp28 + %tmp204 = fmul float %tmp202, %tmp28 + %tmp205 = fmul float %tmp203, -1.000000e+00 + %tmp206 = fmul float %tmp204, 1.000000e+00 + %tmp207 = fmul float %tmp205, %tmp31 + %tmp208 = fmul float %tmp206, %tmp31 + %tmp209 = fsub float -0.000000e+00, %tmp207 + %tmp210 = fadd float %tmp92, %tmp209 + %tmp211 = fsub float -0.000000e+00, %tmp208 + %tmp212 = fadd float %tmp93, %tmp211 + %tmp213 = fmul float %tmp205, %tmp191 + %tmp214 = fmul float %tmp206, %tmp191 + %tmp215 = fmul float -1.000000e+00, %tmp191 + %tmp216 = bitcast float %tmp135 to i32 + %tmp217 = bitcast float %tmp181 to i32 + %tmp218 = bitcast float %tmp136 to i32 + %tmp219 = bitcast float %tmp182 to i32 + %tmp220 = insertelement <8 x i32> undef, i32 %tmp216, i32 0 + %tmp221 = insertelement <8 x i32> %tmp220, i32 %tmp217, i32 1 + %tmp222 = insertelement <8 x i32> %tmp221, i32 %tmp218, i32 2 + %tmp223 = insertelement <8 x i32> %tmp222, i32 %tmp219, i32 3 br label %LOOP LOOP: ; preds = %ENDIF, %main_body - %temp24.0 = phi float [ 1.000000e+00, %main_body ], [ %258, %ENDIF ] - %temp28.0 = phi float [ %211, %main_body ], [ %253, %ENDIF ] - %temp29.0 = phi float [ %213, %main_body ], [ %255, %ENDIF ] - %temp30.0 = phi float [ 1.000000e+00, %main_body ], [ %257, %ENDIF ] - %225 = fcmp oge float %temp24.0, %191 - %226 = sext i1 %225 to i32 - %227 = bitcast i32 %226 to float - %228 = bitcast float %227 to i32 - %229 = icmp ne i32 %228, 0 - br i1 %229, label %IF, label %ENDIF + %temp24.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp257, %ENDIF ] + %temp28.0 = phi float [ %tmp210, %main_body ], [ %tmp252, %ENDIF ] + %temp29.0 = phi float [ %tmp212, %main_body ], [ %tmp254, %ENDIF ] + %temp30.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp256, %ENDIF ] + %tmp224 = fcmp oge float %temp24.0, %tmp190 + %tmp225 = sext i1 %tmp224 to i32 + %tmp226 = bitcast i32 %tmp225 to float + %tmp227 = bitcast float %tmp226 to i32 + %tmp228 = icmp ne i32 %tmp227, 0 + br i1 %tmp228, label %IF, label %ENDIF IF: ; preds = %LOOP - %230 = bitcast float %136 to i32 - %231 = bitcast float %182 to i32 - %232 = bitcast float %137 to i32 - %233 = bitcast float %183 to i32 - %234 = insertelement <8 x i32> undef, i32 %230, i32 0 - %235 = insertelement <8 x i32> %234, i32 %231, i32 1 - %236 = insertelement <8 x i32> %235, i32 %232, i32 2 - %237 = insertelement <8 x i32> %236, i32 %233, i32 3 + %tmp229 = bitcast float %tmp135 to i32 + %tmp230 = bitcast float %tmp181 to i32 + %tmp231 = bitcast float %tmp136 to i32 + %tmp232 = bitcast float %tmp182 to i32 + %tmp233 = insertelement <8 x i32> undef, i32 %tmp229, i32 0 + %tmp234 = insertelement <8 x i32> %tmp233, i32 %tmp230, i32 1 + %tmp235 = insertelement <8 x i32> %tmp234, i32 %tmp231, i32 2 + %tmp236 = insertelement <8 x i32> %tmp235, i32 %tmp232, i32 3 br label %LOOP65 ENDIF: ; preds = %LOOP - %238 = bitcast float %temp28.0 to i32 - %239 = bitcast float %temp29.0 to i32 - %240 = insertelement <8 x i32> %224, i32 %238, i32 4 - %241 = insertelement <8 x i32> %240, i32 %239, i32 5 - %242 = insertelement <8 x i32> %241, i32 undef, i32 6 - %243 = insertelement <8 x i32> %242, i32 undef, i32 7 - %244 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %243, <32 x i8> %62, <16 x i8> %64, i32 2) - %245 = extractelement <4 x float> %244, i32 3 - %246 = fcmp oge float %temp30.0, %245 - %247 = sext i1 %246 to i32 - %248 = bitcast i32 %247 to float - %249 = bitcast float %248 to i32 - %250 = and i32 %249, 1065353216 - %251 = bitcast i32 %250 to float - %252 = fmul float %214, %251 - %253 = fadd float %252, %temp28.0 - %254 = fmul float %215, %251 - %255 = fadd float %254, %temp29.0 - %256 = fmul float %216, %251 - %257 = fadd float %256, %temp30.0 - %258 = fadd float %temp24.0, 1.000000e+00 + %tmp237 = bitcast float %temp28.0 to i32 + %tmp238 = bitcast float %temp29.0 to i32 + %tmp239 = insertelement <8 x i32> %tmp223, i32 %tmp237, i32 4 + %tmp240 = insertelement <8 x i32> %tmp239, i32 %tmp238, i32 5 + %tmp241 = insertelement <8 x i32> %tmp240, i32 undef, i32 6 + %tmp242 = insertelement <8 x i32> %tmp241, i32 undef, i32 7 + %tmp243 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp242, <32 x i8> %tmp61, <16 x i8> %tmp63, i32 2) + %tmp244 = extractelement <4 x float> %tmp243, i32 3 + %tmp245 = fcmp oge float %temp30.0, %tmp244 + %tmp246 = sext i1 %tmp245 to i32 + %tmp247 = bitcast i32 %tmp246 to float + %tmp248 = bitcast float %tmp247 to i32 + %tmp249 = and i32 %tmp248, 1065353216 + %tmp250 = bitcast i32 %tmp249 to float + %tmp251 = fmul float %tmp213, %tmp250 + %tmp252 = fadd float %tmp251, %temp28.0 + %tmp253 = fmul float %tmp214, %tmp250 + %tmp254 = fadd float %tmp253, %temp29.0 + %tmp255 = fmul float %tmp215, %tmp250 + %tmp256 = fadd float %tmp255, %temp30.0 + %tmp257 = fadd float %temp24.0, 1.000000e+00 br label %LOOP LOOP65: ; preds = %ENDIF66, %IF - %temp24.1 = phi float [ 0.000000e+00, %IF ], [ %610, %ENDIF66 ] - %temp28.1 = phi float [ %temp28.0, %IF ], [ %605, %ENDIF66 ] - %temp29.1 = phi float [ %temp29.0, %IF ], [ %607, %ENDIF66 ] - %temp30.1 = phi float [ %temp30.0, %IF ], [ %609, %ENDIF66 ] - %temp32.0 = phi float [ 1.000000e+00, %IF ], [ %611, %ENDIF66 ] - %259 = fcmp oge float %temp24.1, %195 - %260 = sext i1 %259 to i32 - %261 = bitcast i32 %260 to float - %262 = bitcast float %261 to i32 - %263 = icmp ne i32 %262, 0 - br i1 %263, label %IF67, label %ENDIF66 + %temp24.1 = phi float [ 0.000000e+00, %IF ], [ %tmp609, %ENDIF66 ] + %temp28.1 = phi float [ %temp28.0, %IF ], [ %tmp604, %ENDIF66 ] + %temp29.1 = phi float [ %temp29.0, %IF ], [ %tmp606, %ENDIF66 ] + %temp30.1 = phi float [ %temp30.0, %IF ], [ %tmp608, %ENDIF66 ] + %temp32.0 = phi float [ 1.000000e+00, %IF ], [ %tmp610, %ENDIF66 ] + %tmp258 = fcmp oge float %temp24.1, %tmp194 + %tmp259 = sext i1 %tmp258 to i32 + %tmp260 = bitcast i32 %tmp259 to float + %tmp261 = bitcast float %tmp260 to i32 + %tmp262 = icmp ne i32 %tmp261, 0 + br i1 %tmp262, label %IF67, label %ENDIF66 IF67: ; preds = %LOOP65 - %264 = bitcast float %136 to i32 - %265 = bitcast float %182 to i32 - %266 = bitcast float %137 to i32 - %267 = bitcast float %183 to i32 - %268 = bitcast float %temp28.1 to i32 - %269 = bitcast float %temp29.1 to i32 - %270 = insertelement <8 x i32> undef, i32 %264, i32 0 - %271 = insertelement <8 x i32> %270, i32 %265, i32 1 - %272 = insertelement <8 x i32> %271, i32 %266, i32 2 - %273 = insertelement <8 x i32> %272, i32 %267, i32 3 - %274 = insertelement <8 x i32> %273, i32 %268, i32 4 - %275 = insertelement <8 x i32> %274, i32 %269, i32 5 - %276 = insertelement <8 x i32> %275, i32 undef, i32 6 - %277 = insertelement <8 x i32> %276, i32 undef, i32 7 - %278 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %277, <32 x i8> %66, <16 x i8> %68, i32 2) - %279 = extractelement <4 x float> %278, i32 0 - %280 = extractelement <4 x float> %278, i32 1 - %281 = extractelement <4 x float> %278, i32 2 - %282 = extractelement <4 x float> %278, i32 3 - %283 = fmul float %282, %47 - %284 = bitcast float %136 to i32 - %285 = bitcast float %182 to i32 - %286 = bitcast float %137 to i32 - %287 = bitcast float %183 to i32 - %288 = bitcast float %temp28.1 to i32 - %289 = bitcast float %temp29.1 to i32 - %290 = insertelement <8 x i32> undef, i32 %284, i32 0 - %291 = insertelement <8 x i32> %290, i32 %285, i32 1 - %292 = insertelement <8 x i32> %291, i32 %286, i32 2 - %293 = insertelement <8 x i32> %292, i32 %287, i32 3 - %294 = insertelement <8 x i32> %293, i32 %288, i32 4 - %295 = insertelement <8 x i32> %294, i32 %289, i32 5 - %296 = insertelement <8 x i32> %295, i32 undef, i32 6 - %297 = insertelement <8 x i32> %296, i32 undef, i32 7 - %298 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %297, <32 x i8> %82, <16 x i8> %84, i32 2) - %299 = extractelement <4 x float> %298, i32 0 - %300 = extractelement <4 x float> %298, i32 1 - %301 = extractelement <4 x float> %298, i32 2 - %302 = bitcast float %136 to i32 - %303 = bitcast float %182 to i32 - %304 = bitcast float %137 to i32 - %305 = bitcast float %183 to i32 - %306 = bitcast float %temp28.1 to i32 - %307 = bitcast float %temp29.1 to i32 - %308 = insertelement <8 x i32> undef, i32 %302, i32 0 - %309 = insertelement <8 x i32> %308, i32 %303, i32 1 - %310 = insertelement <8 x i32> %309, i32 %304, i32 2 - %311 = insertelement <8 x i32> %310, i32 %305, i32 3 - %312 = insertelement <8 x i32> %311, i32 %306, i32 4 - %313 = insertelement <8 x i32> %312, i32 %307, i32 5 - %314 = insertelement <8 x i32> %313, i32 undef, i32 6 - %315 = insertelement <8 x i32> %314, i32 undef, i32 7 - %316 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %315, <32 x i8> %78, <16 x i8> %80, i32 2) - %317 = extractelement <4 x float> %316, i32 0 - %318 = extractelement <4 x float> %316, i32 1 - %319 = extractelement <4 x float> %316, i32 2 - %320 = fmul float %317, %23 - %321 = fmul float %318, %24 - %322 = fmul float %319, %25 - %323 = fmul float %299, %26 - %324 = fadd float %323, %320 - %325 = fmul float %300, %27 - %326 = fadd float %325, %321 - %327 = fmul float %301, %28 - %328 = fadd float %327, %322 - %329 = fadd float %279, %324 - %330 = fadd float %280, %326 - %331 = fadd float %281, %328 - %332 = bitcast float %136 to i32 - %333 = bitcast float %182 to i32 - %334 = bitcast float %137 to i32 - %335 = bitcast float %183 to i32 - %336 = bitcast float %temp28.1 to i32 - %337 = bitcast float %temp29.1 to i32 - %338 = insertelement <8 x i32> undef, i32 %332, i32 0 - %339 = insertelement <8 x i32> %338, i32 %333, i32 1 - %340 = insertelement <8 x i32> %339, i32 %334, i32 2 - %341 = insertelement <8 x i32> %340, i32 %335, i32 3 - %342 = insertelement <8 x i32> %341, i32 %336, i32 4 - %343 = insertelement <8 x i32> %342, i32 %337, i32 5 - %344 = insertelement <8 x i32> %343, i32 undef, i32 6 - %345 = insertelement <8 x i32> %344, i32 undef, i32 7 - %346 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %345, <32 x i8> %62, <16 x i8> %64, i32 2) - %347 = extractelement <4 x float> %346, i32 0 - %348 = extractelement <4 x float> %346, i32 1 - %349 = extractelement <4 x float> %346, i32 2 - %350 = fadd float %347, -5.000000e-01 - %351 = fadd float %348, -5.000000e-01 - %352 = fadd float %349, -5.000000e-01 - %353 = fmul float %350, %350 - %354 = fmul float %351, %351 - %355 = fadd float %354, %353 - %356 = fmul float %352, %352 - %357 = fadd float %355, %356 - %358 = call float @llvm.amdgcn.rsq.f32(float %357) - %359 = fmul float %350, %358 - %360 = fmul float %351, %358 - %361 = fmul float %352, %358 - %362 = bitcast float %136 to i32 - %363 = bitcast float %182 to i32 - %364 = bitcast float %137 to i32 - %365 = bitcast float %183 to i32 - %366 = bitcast float %temp28.1 to i32 - %367 = bitcast float %temp29.1 to i32 - %368 = insertelement <8 x i32> undef, i32 %362, i32 0 - %369 = insertelement <8 x i32> %368, i32 %363, i32 1 - %370 = insertelement <8 x i32> %369, i32 %364, i32 2 - %371 = insertelement <8 x i32> %370, i32 %365, i32 3 - %372 = insertelement <8 x i32> %371, i32 %366, i32 4 - %373 = insertelement <8 x i32> %372, i32 %367, i32 5 - %374 = insertelement <8 x i32> %373, i32 undef, i32 6 - %375 = insertelement <8 x i32> %374, i32 undef, i32 7 - %376 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %375, <32 x i8> %70, <16 x i8> %72, i32 2) - %377 = extractelement <4 x float> %376, i32 0 - %378 = extractelement <4 x float> %376, i32 1 - %379 = extractelement <4 x float> %376, i32 2 - %380 = extractelement <4 x float> %376, i32 3 - %381 = fsub float -0.000000e+00, %95 - %382 = fsub float -0.000000e+00, %96 - %383 = fsub float -0.000000e+00, %97 - %384 = fmul float %359, %381 - %385 = fmul float %360, %382 - %386 = fadd float %385, %384 - %387 = fmul float %361, %383 - %388 = fadd float %386, %387 - %389 = fmul float %388, %359 - %390 = fmul float %388, %360 - %391 = fmul float %388, %361 - %392 = fmul float 2.000000e+00, %389 - %393 = fmul float 2.000000e+00, %390 - %394 = fmul float 2.000000e+00, %391 - %395 = fsub float -0.000000e+00, %392 - %396 = fadd float %381, %395 - %397 = fsub float -0.000000e+00, %393 - %398 = fadd float %382, %397 - %399 = fsub float -0.000000e+00, %394 - %400 = fadd float %383, %399 - %401 = fmul float %396, %98 - %402 = fmul float %396, %99 - %403 = fmul float %396, %100 - %404 = fmul float %398, %101 - %405 = fadd float %404, %401 - %406 = fmul float %398, %102 - %407 = fadd float %406, %402 - %408 = fmul float %398, %103 - %409 = fadd float %408, %403 - %410 = fmul float %400, %104 - %411 = fadd float %410, %405 - %412 = fmul float %400, %105 - %413 = fadd float %412, %407 - %414 = fmul float %400, %106 - %415 = fadd float %414, %409 - %416 = bitcast float %136 to i32 - %417 = bitcast float %182 to i32 - %418 = bitcast float %137 to i32 - %419 = bitcast float %183 to i32 - %420 = bitcast float %temp28.1 to i32 - %421 = bitcast float %temp29.1 to i32 - %422 = insertelement <8 x i32> undef, i32 %416, i32 0 - %423 = insertelement <8 x i32> %422, i32 %417, i32 1 - %424 = insertelement <8 x i32> %423, i32 %418, i32 2 - %425 = insertelement <8 x i32> %424, i32 %419, i32 3 - %426 = insertelement <8 x i32> %425, i32 %420, i32 4 - %427 = insertelement <8 x i32> %426, i32 %421, i32 5 - %428 = insertelement <8 x i32> %427, i32 undef, i32 6 - %429 = insertelement <8 x i32> %428, i32 undef, i32 7 - %430 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %429, <32 x i8> %86, <16 x i8> %88, i32 2) - %431 = extractelement <4 x float> %430, i32 0 - %432 = extractelement <4 x float> %430, i32 1 - %433 = extractelement <4 x float> %430, i32 2 - %434 = fmul float %48, %411 - %435 = fmul float %49, %411 - %436 = fmul float %50, %411 - %437 = fmul float %51, %413 - %438 = fadd float %437, %434 - %439 = fmul float %52, %413 - %440 = fadd float %439, %435 - %441 = fmul float %53, %413 - %442 = fadd float %441, %436 - %443 = fmul float %54, %415 - %444 = fadd float %443, %438 - %445 = fmul float %55, %415 - %446 = fadd float %445, %440 - %447 = fmul float %56, %415 - %448 = fadd float %447, %442 - %449 = insertelement <4 x float> undef, float %444, i32 0 - %450 = insertelement <4 x float> %449, float %446, i32 1 - %451 = insertelement <4 x float> %450, float %448, i32 2 - %452 = insertelement <4 x float> %451, float %195, i32 3 - %453 = call <4 x float> @llvm.AMDGPU.cube(<4 x float> %452) - %454 = extractelement <4 x float> %453, i32 0 - %455 = extractelement <4 x float> %453, i32 1 - %456 = extractelement <4 x float> %453, i32 2 - %457 = extractelement <4 x float> %453, i32 3 - %458 = call float @fabs(float %456) - %459 = fdiv float 1.000000e+00, %458 - %460 = fmul float %454, %459 - %461 = fadd float %460, 1.500000e+00 - %462 = fmul float %455, %459 - %463 = fadd float %462, 1.500000e+00 - %464 = bitcast float %463 to i32 - %465 = bitcast float %461 to i32 - %466 = bitcast float %457 to i32 - %467 = insertelement <4 x i32> undef, i32 %464, i32 0 - %468 = insertelement <4 x i32> %467, i32 %465, i32 1 - %469 = insertelement <4 x i32> %468, i32 %466, i32 2 - %470 = insertelement <4 x i32> %469, i32 undef, i32 3 - %471 = call <4 x float> @llvm.SI.sample.v4i32(<4 x i32> %470, <32 x i8> %90, <16 x i8> %92, i32 4) - %472 = extractelement <4 x float> %471, i32 0 - %473 = extractelement <4 x float> %471, i32 1 - %474 = extractelement <4 x float> %471, i32 2 - %475 = fmul float %431, %472 - %476 = fadd float %475, %329 - %477 = fmul float %432, %473 - %478 = fadd float %477, %330 - %479 = fmul float %433, %474 - %480 = fadd float %479, %331 - %481 = fmul float %107, %107 - %482 = fmul float %108, %108 - %483 = fadd float %482, %481 - %484 = fmul float %109, %109 - %485 = fadd float %483, %484 - %486 = call float @llvm.amdgcn.rsq.f32(float %485) - %487 = fmul float %107, %486 - %488 = fmul float %108, %486 - %489 = fmul float %109, %486 - %490 = fmul float %377, %40 - %491 = fmul float %378, %41 - %492 = fmul float %379, %42 - %493 = fmul float %359, %487 - %494 = fmul float %360, %488 - %495 = fadd float %494, %493 - %496 = fmul float %361, %489 - %497 = fadd float %495, %496 - %498 = fmul float %497, %359 - %499 = fmul float %497, %360 - %500 = fmul float %497, %361 - %501 = fmul float 2.000000e+00, %498 - %502 = fmul float 2.000000e+00, %499 - %503 = fmul float 2.000000e+00, %500 - %504 = fsub float -0.000000e+00, %501 - %505 = fadd float %487, %504 - %506 = fsub float -0.000000e+00, %502 - %507 = fadd float %488, %506 - %508 = fsub float -0.000000e+00, %503 - %509 = fadd float %489, %508 - %510 = fmul float %95, %95 - %511 = fmul float %96, %96 - %512 = fadd float %511, %510 - %513 = fmul float %97, %97 - %514 = fadd float %512, %513 - %515 = call float @llvm.amdgcn.rsq.f32(float %514) - %516 = fmul float %95, %515 - %517 = fmul float %96, %515 - %518 = fmul float %97, %515 - %519 = fmul float %505, %516 - %520 = fmul float %507, %517 - %521 = fadd float %520, %519 - %522 = fmul float %509, %518 - %523 = fadd float %521, %522 - %524 = fsub float -0.000000e+00, %523 - %525 = fcmp uge float %524, 0.000000e+00 - %526 = select i1 %525, float %524, float 0.000000e+00 - %527 = fmul float %43, %380 - %528 = fadd float %527, 1.000000e+00 - %529 = call float @llvm.pow.f32(float %526, float %528) - %530 = fmul float %476, %37 - %531 = fmul float %478, %38 - %532 = fmul float %480, %39 - %533 = fmul float %359, %487 - %534 = fmul float %360, %488 - %535 = fadd float %534, %533 - %536 = fmul float %361, %489 - %537 = fadd float %535, %536 - %538 = fcmp uge float %537, 0.000000e+00 - %539 = select i1 %538, float %537, float 0.000000e+00 - %540 = fmul float %530, %539 - %541 = fmul float %531, %539 - %542 = fmul float %532, %539 - %543 = fmul float %490, %529 - %544 = fadd float %543, %540 - %545 = fmul float %491, %529 - %546 = fadd float %545, %541 - %547 = fmul float %492, %529 - %548 = fadd float %547, %542 - %549 = fmul float %476, %34 - %550 = fmul float %478, %35 - %551 = fmul float %480, %36 - %552 = fmul float %544, %57 - %553 = fadd float %552, %549 - %554 = fmul float %546, %58 - %555 = fadd float %554, %550 - %556 = fmul float %548, %59 - %557 = fadd float %556, %551 - %558 = bitcast float %136 to i32 - %559 = bitcast float %182 to i32 - %560 = bitcast float %137 to i32 - %561 = bitcast float %183 to i32 - %562 = bitcast float %temp28.1 to i32 - %563 = bitcast float %temp29.1 to i32 - %564 = insertelement <8 x i32> undef, i32 %558, i32 0 - %565 = insertelement <8 x i32> %564, i32 %559, i32 1 - %566 = insertelement <8 x i32> %565, i32 %560, i32 2 - %567 = insertelement <8 x i32> %566, i32 %561, i32 3 - %568 = insertelement <8 x i32> %567, i32 %562, i32 4 - %569 = insertelement <8 x i32> %568, i32 %563, i32 5 - %570 = insertelement <8 x i32> %569, i32 undef, i32 6 - %571 = insertelement <8 x i32> %570, i32 undef, i32 7 - %572 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %571, <32 x i8> %74, <16 x i8> %76, i32 2) - %573 = extractelement <4 x float> %572, i32 0 - %574 = extractelement <4 x float> %572, i32 1 - %575 = extractelement <4 x float> %572, i32 2 - %576 = fmul float %573, %44 - %577 = fadd float %576, %553 - %578 = fmul float %574, %45 - %579 = fadd float %578, %555 - %580 = fmul float %575, %46 - %581 = fadd float %580, %557 - %582 = call i32 @llvm.SI.packf16(float %577, float %579) - %583 = bitcast i32 %582 to float - %584 = call i32 @llvm.SI.packf16(float %581, float %283) - %585 = bitcast i32 %584 to float - call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %583, float %585, float %583, float %585) + %tmp263 = bitcast float %tmp135 to i32 + %tmp264 = bitcast float %tmp181 to i32 + %tmp265 = bitcast float %tmp136 to i32 + %tmp266 = bitcast float %tmp182 to i32 + %tmp267 = bitcast float %temp28.1 to i32 + %tmp268 = bitcast float %temp29.1 to i32 + %tmp269 = insertelement <8 x i32> undef, i32 %tmp263, i32 0 + %tmp270 = insertelement <8 x i32> %tmp269, i32 %tmp264, i32 1 + %tmp271 = insertelement <8 x i32> %tmp270, i32 %tmp265, i32 2 + %tmp272 = insertelement <8 x i32> %tmp271, i32 %tmp266, i32 3 + %tmp273 = insertelement <8 x i32> %tmp272, i32 %tmp267, i32 4 + %tmp274 = insertelement <8 x i32> %tmp273, i32 %tmp268, i32 5 + %tmp275 = insertelement <8 x i32> %tmp274, i32 undef, i32 6 + %tmp276 = insertelement <8 x i32> %tmp275, i32 undef, i32 7 + %tmp277 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp276, <32 x i8> %tmp65, <16 x i8> %tmp67, i32 2) + %tmp278 = extractelement <4 x float> %tmp277, i32 0 + %tmp279 = extractelement <4 x float> %tmp277, i32 1 + %tmp280 = extractelement <4 x float> %tmp277, i32 2 + %tmp281 = extractelement <4 x float> %tmp277, i32 3 + %tmp282 = fmul float %tmp281, %tmp46 + %tmp283 = bitcast float %tmp135 to i32 + %tmp284 = bitcast float %tmp181 to i32 + %tmp285 = bitcast float %tmp136 to i32 + %tmp286 = bitcast float %tmp182 to i32 + %tmp287 = bitcast float %temp28.1 to i32 + %tmp288 = bitcast float %temp29.1 to i32 + %tmp289 = insertelement <8 x i32> undef, i32 %tmp283, i32 0 + %tmp290 = insertelement <8 x i32> %tmp289, i32 %tmp284, i32 1 + %tmp291 = insertelement <8 x i32> %tmp290, i32 %tmp285, i32 2 + %tmp292 = insertelement <8 x i32> %tmp291, i32 %tmp286, i32 3 + %tmp293 = insertelement <8 x i32> %tmp292, i32 %tmp287, i32 4 + %tmp294 = insertelement <8 x i32> %tmp293, i32 %tmp288, i32 5 + %tmp295 = insertelement <8 x i32> %tmp294, i32 undef, i32 6 + %tmp296 = insertelement <8 x i32> %tmp295, i32 undef, i32 7 + %tmp297 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp296, <32 x i8> %tmp81, <16 x i8> %tmp83, i32 2) + %tmp298 = extractelement <4 x float> %tmp297, i32 0 + %tmp299 = extractelement <4 x float> %tmp297, i32 1 + %tmp300 = extractelement <4 x float> %tmp297, i32 2 + %tmp301 = bitcast float %tmp135 to i32 + %tmp302 = bitcast float %tmp181 to i32 + %tmp303 = bitcast float %tmp136 to i32 + %tmp304 = bitcast float %tmp182 to i32 + %tmp305 = bitcast float %temp28.1 to i32 + %tmp306 = bitcast float %temp29.1 to i32 + %tmp307 = insertelement <8 x i32> undef, i32 %tmp301, i32 0 + %tmp308 = insertelement <8 x i32> %tmp307, i32 %tmp302, i32 1 + %tmp309 = insertelement <8 x i32> %tmp308, i32 %tmp303, i32 2 + %tmp310 = insertelement <8 x i32> %tmp309, i32 %tmp304, i32 3 + %tmp311 = insertelement <8 x i32> %tmp310, i32 %tmp305, i32 4 + %tmp312 = insertelement <8 x i32> %tmp311, i32 %tmp306, i32 5 + %tmp313 = insertelement <8 x i32> %tmp312, i32 undef, i32 6 + %tmp314 = insertelement <8 x i32> %tmp313, i32 undef, i32 7 + %tmp315 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp314, <32 x i8> %tmp77, <16 x i8> %tmp79, i32 2) + %tmp316 = extractelement <4 x float> %tmp315, i32 0 + %tmp317 = extractelement <4 x float> %tmp315, i32 1 + %tmp318 = extractelement <4 x float> %tmp315, i32 2 + %tmp319 = fmul float %tmp316, %tmp22 + %tmp320 = fmul float %tmp317, %tmp23 + %tmp321 = fmul float %tmp318, %tmp24 + %tmp322 = fmul float %tmp298, %tmp25 + %tmp323 = fadd float %tmp322, %tmp319 + %tmp324 = fmul float %tmp299, %tmp26 + %tmp325 = fadd float %tmp324, %tmp320 + %tmp326 = fmul float %tmp300, %tmp27 + %tmp327 = fadd float %tmp326, %tmp321 + %tmp328 = fadd float %tmp278, %tmp323 + %tmp329 = fadd float %tmp279, %tmp325 + %tmp330 = fadd float %tmp280, %tmp327 + %tmp331 = bitcast float %tmp135 to i32 + %tmp332 = bitcast float %tmp181 to i32 + %tmp333 = bitcast float %tmp136 to i32 + %tmp334 = bitcast float %tmp182 to i32 + %tmp335 = bitcast float %temp28.1 to i32 + %tmp336 = bitcast float %temp29.1 to i32 + %tmp337 = insertelement <8 x i32> undef, i32 %tmp331, i32 0 + %tmp338 = insertelement <8 x i32> %tmp337, i32 %tmp332, i32 1 + %tmp339 = insertelement <8 x i32> %tmp338, i32 %tmp333, i32 2 + %tmp340 = insertelement <8 x i32> %tmp339, i32 %tmp334, i32 3 + %tmp341 = insertelement <8 x i32> %tmp340, i32 %tmp335, i32 4 + %tmp342 = insertelement <8 x i32> %tmp341, i32 %tmp336, i32 5 + %tmp343 = insertelement <8 x i32> %tmp342, i32 undef, i32 6 + %tmp344 = insertelement <8 x i32> %tmp343, i32 undef, i32 7 + %tmp345 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp344, <32 x i8> %tmp61, <16 x i8> %tmp63, i32 2) + %tmp346 = extractelement <4 x float> %tmp345, i32 0 + %tmp347 = extractelement <4 x float> %tmp345, i32 1 + %tmp348 = extractelement <4 x float> %tmp345, i32 2 + %tmp349 = fadd float %tmp346, -5.000000e-01 + %tmp350 = fadd float %tmp347, -5.000000e-01 + %tmp351 = fadd float %tmp348, -5.000000e-01 + %tmp352 = fmul float %tmp349, %tmp349 + %tmp353 = fmul float %tmp350, %tmp350 + %tmp354 = fadd float %tmp353, %tmp352 + %tmp355 = fmul float %tmp351, %tmp351 + %tmp356 = fadd float %tmp354, %tmp355 + %tmp357 = call float @llvm.amdgcn.rsq.f32(float %tmp356) + %tmp358 = fmul float %tmp349, %tmp357 + %tmp359 = fmul float %tmp350, %tmp357 + %tmp360 = fmul float %tmp351, %tmp357 + %tmp361 = bitcast float %tmp135 to i32 + %tmp362 = bitcast float %tmp181 to i32 + %tmp363 = bitcast float %tmp136 to i32 + %tmp364 = bitcast float %tmp182 to i32 + %tmp365 = bitcast float %temp28.1 to i32 + %tmp366 = bitcast float %temp29.1 to i32 + %tmp367 = insertelement <8 x i32> undef, i32 %tmp361, i32 0 + %tmp368 = insertelement <8 x i32> %tmp367, i32 %tmp362, i32 1 + %tmp369 = insertelement <8 x i32> %tmp368, i32 %tmp363, i32 2 + %tmp370 = insertelement <8 x i32> %tmp369, i32 %tmp364, i32 3 + %tmp371 = insertelement <8 x i32> %tmp370, i32 %tmp365, i32 4 + %tmp372 = insertelement <8 x i32> %tmp371, i32 %tmp366, i32 5 + %tmp373 = insertelement <8 x i32> %tmp372, i32 undef, i32 6 + %tmp374 = insertelement <8 x i32> %tmp373, i32 undef, i32 7 + %tmp375 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp374, <32 x i8> %tmp69, <16 x i8> %tmp71, i32 2) + %tmp376 = extractelement <4 x float> %tmp375, i32 0 + %tmp377 = extractelement <4 x float> %tmp375, i32 1 + %tmp378 = extractelement <4 x float> %tmp375, i32 2 + %tmp379 = extractelement <4 x float> %tmp375, i32 3 + %tmp380 = fsub float -0.000000e+00, %tmp94 + %tmp381 = fsub float -0.000000e+00, %tmp95 + %tmp382 = fsub float -0.000000e+00, %tmp96 + %tmp383 = fmul float %tmp358, %tmp380 + %tmp384 = fmul float %tmp359, %tmp381 + %tmp385 = fadd float %tmp384, %tmp383 + %tmp386 = fmul float %tmp360, %tmp382 + %tmp387 = fadd float %tmp385, %tmp386 + %tmp388 = fmul float %tmp387, %tmp358 + %tmp389 = fmul float %tmp387, %tmp359 + %tmp390 = fmul float %tmp387, %tmp360 + %tmp391 = fmul float 2.000000e+00, %tmp388 + %tmp392 = fmul float 2.000000e+00, %tmp389 + %tmp393 = fmul float 2.000000e+00, %tmp390 + %tmp394 = fsub float -0.000000e+00, %tmp391 + %tmp395 = fadd float %tmp380, %tmp394 + %tmp396 = fsub float -0.000000e+00, %tmp392 + %tmp397 = fadd float %tmp381, %tmp396 + %tmp398 = fsub float -0.000000e+00, %tmp393 + %tmp399 = fadd float %tmp382, %tmp398 + %tmp400 = fmul float %tmp395, %tmp97 + %tmp401 = fmul float %tmp395, %tmp98 + %tmp402 = fmul float %tmp395, %tmp99 + %tmp403 = fmul float %tmp397, %tmp100 + %tmp404 = fadd float %tmp403, %tmp400 + %tmp405 = fmul float %tmp397, %tmp101 + %tmp406 = fadd float %tmp405, %tmp401 + %tmp407 = fmul float %tmp397, %tmp102 + %tmp408 = fadd float %tmp407, %tmp402 + %tmp409 = fmul float %tmp399, %tmp103 + %tmp410 = fadd float %tmp409, %tmp404 + %tmp411 = fmul float %tmp399, %tmp104 + %tmp412 = fadd float %tmp411, %tmp406 + %tmp413 = fmul float %tmp399, %tmp105 + %tmp414 = fadd float %tmp413, %tmp408 + %tmp415 = bitcast float %tmp135 to i32 + %tmp416 = bitcast float %tmp181 to i32 + %tmp417 = bitcast float %tmp136 to i32 + %tmp418 = bitcast float %tmp182 to i32 + %tmp419 = bitcast float %temp28.1 to i32 + %tmp420 = bitcast float %temp29.1 to i32 + %tmp421 = insertelement <8 x i32> undef, i32 %tmp415, i32 0 + %tmp422 = insertelement <8 x i32> %tmp421, i32 %tmp416, i32 1 + %tmp423 = insertelement <8 x i32> %tmp422, i32 %tmp417, i32 2 + %tmp424 = insertelement <8 x i32> %tmp423, i32 %tmp418, i32 3 + %tmp425 = insertelement <8 x i32> %tmp424, i32 %tmp419, i32 4 + %tmp426 = insertelement <8 x i32> %tmp425, i32 %tmp420, i32 5 + %tmp427 = insertelement <8 x i32> %tmp426, i32 undef, i32 6 + %tmp428 = insertelement <8 x i32> %tmp427, i32 undef, i32 7 + %tmp429 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp428, <32 x i8> %tmp85, <16 x i8> %tmp87, i32 2) + %tmp430 = extractelement <4 x float> %tmp429, i32 0 + %tmp431 = extractelement <4 x float> %tmp429, i32 1 + %tmp432 = extractelement <4 x float> %tmp429, i32 2 + %tmp433 = fmul float %tmp47, %tmp410 + %tmp434 = fmul float %tmp48, %tmp410 + %tmp435 = fmul float %tmp49, %tmp410 + %tmp436 = fmul float %tmp50, %tmp412 + %tmp437 = fadd float %tmp436, %tmp433 + %tmp438 = fmul float %tmp51, %tmp412 + %tmp439 = fadd float %tmp438, %tmp434 + %tmp440 = fmul float %tmp52, %tmp412 + %tmp441 = fadd float %tmp440, %tmp435 + %tmp442 = fmul float %tmp53, %tmp414 + %tmp443 = fadd float %tmp442, %tmp437 + %tmp444 = fmul float %tmp54, %tmp414 + %tmp445 = fadd float %tmp444, %tmp439 + %tmp446 = fmul float %tmp55, %tmp414 + %tmp447 = fadd float %tmp446, %tmp441 + %tmp448 = insertelement <4 x float> undef, float %tmp443, i32 0 + %tmp449 = insertelement <4 x float> %tmp448, float %tmp445, i32 1 + %tmp450 = insertelement <4 x float> %tmp449, float %tmp447, i32 2 + %tmp451 = insertelement <4 x float> %tmp450, float %tmp194, i32 3 + %tmp452 = call <4 x float> @llvm.AMDGPU.cube(<4 x float> %tmp451) + %tmp453 = extractelement <4 x float> %tmp452, i32 0 + %tmp454 = extractelement <4 x float> %tmp452, i32 1 + %tmp455 = extractelement <4 x float> %tmp452, i32 2 + %tmp456 = extractelement <4 x float> %tmp452, i32 3 + %tmp457 = call float @fabs(float %tmp455) + %tmp458 = fdiv float 1.000000e+00, %tmp457 + %tmp459 = fmul float %tmp453, %tmp458 + %tmp460 = fadd float %tmp459, 1.500000e+00 + %tmp461 = fmul float %tmp454, %tmp458 + %tmp462 = fadd float %tmp461, 1.500000e+00 + %tmp463 = bitcast float %tmp462 to i32 + %tmp464 = bitcast float %tmp460 to i32 + %tmp465 = bitcast float %tmp456 to i32 + %tmp466 = insertelement <4 x i32> undef, i32 %tmp463, i32 0 + %tmp467 = insertelement <4 x i32> %tmp466, i32 %tmp464, i32 1 + %tmp468 = insertelement <4 x i32> %tmp467, i32 %tmp465, i32 2 + %tmp469 = insertelement <4 x i32> %tmp468, i32 undef, i32 3 + %tmp470 = call <4 x float> @llvm.SI.sample.v4i32(<4 x i32> %tmp469, <32 x i8> %tmp89, <16 x i8> %tmp91, i32 4) + %tmp471 = extractelement <4 x float> %tmp470, i32 0 + %tmp472 = extractelement <4 x float> %tmp470, i32 1 + %tmp473 = extractelement <4 x float> %tmp470, i32 2 + %tmp474 = fmul float %tmp430, %tmp471 + %tmp475 = fadd float %tmp474, %tmp328 + %tmp476 = fmul float %tmp431, %tmp472 + %tmp477 = fadd float %tmp476, %tmp329 + %tmp478 = fmul float %tmp432, %tmp473 + %tmp479 = fadd float %tmp478, %tmp330 + %tmp480 = fmul float %tmp106, %tmp106 + %tmp481 = fmul float %tmp107, %tmp107 + %tmp482 = fadd float %tmp481, %tmp480 + %tmp483 = fmul float %tmp108, %tmp108 + %tmp484 = fadd float %tmp482, %tmp483 + %tmp485 = call float @llvm.amdgcn.rsq.f32(float %tmp484) + %tmp486 = fmul float %tmp106, %tmp485 + %tmp487 = fmul float %tmp107, %tmp485 + %tmp488 = fmul float %tmp108, %tmp485 + %tmp489 = fmul float %tmp376, %tmp39 + %tmp490 = fmul float %tmp377, %tmp40 + %tmp491 = fmul float %tmp378, %tmp41 + %tmp492 = fmul float %tmp358, %tmp486 + %tmp493 = fmul float %tmp359, %tmp487 + %tmp494 = fadd float %tmp493, %tmp492 + %tmp495 = fmul float %tmp360, %tmp488 + %tmp496 = fadd float %tmp494, %tmp495 + %tmp497 = fmul float %tmp496, %tmp358 + %tmp498 = fmul float %tmp496, %tmp359 + %tmp499 = fmul float %tmp496, %tmp360 + %tmp500 = fmul float 2.000000e+00, %tmp497 + %tmp501 = fmul float 2.000000e+00, %tmp498 + %tmp502 = fmul float 2.000000e+00, %tmp499 + %tmp503 = fsub float -0.000000e+00, %tmp500 + %tmp504 = fadd float %tmp486, %tmp503 + %tmp505 = fsub float -0.000000e+00, %tmp501 + %tmp506 = fadd float %tmp487, %tmp505 + %tmp507 = fsub float -0.000000e+00, %tmp502 + %tmp508 = fadd float %tmp488, %tmp507 + %tmp509 = fmul float %tmp94, %tmp94 + %tmp510 = fmul float %tmp95, %tmp95 + %tmp511 = fadd float %tmp510, %tmp509 + %tmp512 = fmul float %tmp96, %tmp96 + %tmp513 = fadd float %tmp511, %tmp512 + %tmp514 = call float @llvm.amdgcn.rsq.f32(float %tmp513) + %tmp515 = fmul float %tmp94, %tmp514 + %tmp516 = fmul float %tmp95, %tmp514 + %tmp517 = fmul float %tmp96, %tmp514 + %tmp518 = fmul float %tmp504, %tmp515 + %tmp519 = fmul float %tmp506, %tmp516 + %tmp520 = fadd float %tmp519, %tmp518 + %tmp521 = fmul float %tmp508, %tmp517 + %tmp522 = fadd float %tmp520, %tmp521 + %tmp523 = fsub float -0.000000e+00, %tmp522 + %tmp524 = fcmp uge float %tmp523, 0.000000e+00 + %tmp525 = select i1 %tmp524, float %tmp523, float 0.000000e+00 + %tmp526 = fmul float %tmp42, %tmp379 + %tmp527 = fadd float %tmp526, 1.000000e+00 + %tmp528 = call float @llvm.pow.f32(float %tmp525, float %tmp527) + %tmp529 = fmul float %tmp475, %tmp36 + %tmp530 = fmul float %tmp477, %tmp37 + %tmp531 = fmul float %tmp479, %tmp38 + %tmp532 = fmul float %tmp358, %tmp486 + %tmp533 = fmul float %tmp359, %tmp487 + %tmp534 = fadd float %tmp533, %tmp532 + %tmp535 = fmul float %tmp360, %tmp488 + %tmp536 = fadd float %tmp534, %tmp535 + %tmp537 = fcmp uge float %tmp536, 0.000000e+00 + %tmp538 = select i1 %tmp537, float %tmp536, float 0.000000e+00 + %tmp539 = fmul float %tmp529, %tmp538 + %tmp540 = fmul float %tmp530, %tmp538 + %tmp541 = fmul float %tmp531, %tmp538 + %tmp542 = fmul float %tmp489, %tmp528 + %tmp543 = fadd float %tmp542, %tmp539 + %tmp544 = fmul float %tmp490, %tmp528 + %tmp545 = fadd float %tmp544, %tmp540 + %tmp546 = fmul float %tmp491, %tmp528 + %tmp547 = fadd float %tmp546, %tmp541 + %tmp548 = fmul float %tmp475, %tmp33 + %tmp549 = fmul float %tmp477, %tmp34 + %tmp550 = fmul float %tmp479, %tmp35 + %tmp551 = fmul float %tmp543, %tmp56 + %tmp552 = fadd float %tmp551, %tmp548 + %tmp553 = fmul float %tmp545, %tmp57 + %tmp554 = fadd float %tmp553, %tmp549 + %tmp555 = fmul float %tmp547, %tmp58 + %tmp556 = fadd float %tmp555, %tmp550 + %tmp557 = bitcast float %tmp135 to i32 + %tmp558 = bitcast float %tmp181 to i32 + %tmp559 = bitcast float %tmp136 to i32 + %tmp560 = bitcast float %tmp182 to i32 + %tmp561 = bitcast float %temp28.1 to i32 + %tmp562 = bitcast float %temp29.1 to i32 + %tmp563 = insertelement <8 x i32> undef, i32 %tmp557, i32 0 + %tmp564 = insertelement <8 x i32> %tmp563, i32 %tmp558, i32 1 + %tmp565 = insertelement <8 x i32> %tmp564, i32 %tmp559, i32 2 + %tmp566 = insertelement <8 x i32> %tmp565, i32 %tmp560, i32 3 + %tmp567 = insertelement <8 x i32> %tmp566, i32 %tmp561, i32 4 + %tmp568 = insertelement <8 x i32> %tmp567, i32 %tmp562, i32 5 + %tmp569 = insertelement <8 x i32> %tmp568, i32 undef, i32 6 + %tmp570 = insertelement <8 x i32> %tmp569, i32 undef, i32 7 + %tmp571 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp570, <32 x i8> %tmp73, <16 x i8> %tmp75, i32 2) + %tmp572 = extractelement <4 x float> %tmp571, i32 0 + %tmp573 = extractelement <4 x float> %tmp571, i32 1 + %tmp574 = extractelement <4 x float> %tmp571, i32 2 + %tmp575 = fmul float %tmp572, %tmp43 + %tmp576 = fadd float %tmp575, %tmp552 + %tmp577 = fmul float %tmp573, %tmp44 + %tmp578 = fadd float %tmp577, %tmp554 + %tmp579 = fmul float %tmp574, %tmp45 + %tmp580 = fadd float %tmp579, %tmp556 + %tmp581 = call i32 @llvm.SI.packf16(float %tmp576, float %tmp578) + %tmp582 = bitcast i32 %tmp581 to float + %tmp583 = call i32 @llvm.SI.packf16(float %tmp580, float %tmp282) + %tmp584 = bitcast i32 %tmp583 to float + call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp582, float %tmp584, float %tmp582, float %tmp584) ret void ENDIF66: ; preds = %LOOP65 - %586 = bitcast float %temp28.1 to i32 - %587 = bitcast float %temp29.1 to i32 - %588 = insertelement <8 x i32> %237, i32 %586, i32 4 - %589 = insertelement <8 x i32> %588, i32 %587, i32 5 - %590 = insertelement <8 x i32> %589, i32 undef, i32 6 - %591 = insertelement <8 x i32> %590, i32 undef, i32 7 - %592 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %591, <32 x i8> %62, <16 x i8> %64, i32 2) - %593 = extractelement <4 x float> %592, i32 3 - %594 = fcmp oge float %temp30.1, %593 - %595 = sext i1 %594 to i32 - %596 = bitcast i32 %595 to float - %597 = bitcast float %596 to i32 - %598 = and i32 %597, 1065353216 - %599 = bitcast i32 %598 to float - %600 = fmul float 5.000000e-01, %temp32.0 - %601 = fsub float -0.000000e+00, %600 - %602 = fmul float %599, %temp32.0 - %603 = fadd float %602, %601 - %604 = fmul float %214, %603 - %605 = fadd float %604, %temp28.1 - %606 = fmul float %215, %603 - %607 = fadd float %606, %temp29.1 - %608 = fmul float %216, %603 - %609 = fadd float %608, %temp30.1 - %610 = fadd float %temp24.1, 1.000000e+00 - %611 = fmul float %temp32.0, 5.000000e-01 + %tmp585 = bitcast float %temp28.1 to i32 + %tmp586 = bitcast float %temp29.1 to i32 + %tmp587 = insertelement <8 x i32> %tmp236, i32 %tmp585, i32 4 + %tmp588 = insertelement <8 x i32> %tmp587, i32 %tmp586, i32 5 + %tmp589 = insertelement <8 x i32> %tmp588, i32 undef, i32 6 + %tmp590 = insertelement <8 x i32> %tmp589, i32 undef, i32 7 + %tmp591 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %tmp590, <32 x i8> %tmp61, <16 x i8> %tmp63, i32 2) + %tmp592 = extractelement <4 x float> %tmp591, i32 3 + %tmp593 = fcmp oge float %temp30.1, %tmp592 + %tmp594 = sext i1 %tmp593 to i32 + %tmp595 = bitcast i32 %tmp594 to float + %tmp596 = bitcast float %tmp595 to i32 + %tmp597 = and i32 %tmp596, 1065353216 + %tmp598 = bitcast i32 %tmp597 to float + %tmp599 = fmul float 5.000000e-01, %temp32.0 + %tmp600 = fsub float -0.000000e+00, %tmp599 + %tmp601 = fmul float %tmp598, %temp32.0 + %tmp602 = fadd float %tmp601, %tmp600 + %tmp603 = fmul float %tmp213, %tmp602 + %tmp604 = fadd float %tmp603, %temp28.1 + %tmp605 = fmul float %tmp214, %tmp602 + %tmp606 = fadd float %tmp605, %temp29.1 + %tmp607 = fmul float %tmp215, %tmp602 + %tmp608 = fadd float %tmp607, %temp30.1 + %tmp609 = fadd float %temp24.1, 1.000000e+00 + %tmp610 = fmul float %temp32.0, 5.000000e-01 br label %LOOP65 } ; CHECK-LABEL: {{^}}main1: ; CHECK: s_endpgm -define void @main1([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #1 { +define void @main1([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <32 x i8>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 { main_body: - %21 = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %0, i64 0, i32 0 - %22 = load <16 x i8>, <16 x i8> addrspace(2)* %21, !tbaa !0 - %23 = call float @llvm.SI.load.const(<16 x i8> %22, i32 0) - %24 = call float @llvm.SI.load.const(<16 x i8> %22, i32 4) - %25 = call float @llvm.SI.load.const(<16 x i8> %22, i32 8) - %26 = call float @llvm.SI.load.const(<16 x i8> %22, i32 12) - %27 = call float @llvm.SI.load.const(<16 x i8> %22, i32 28) - %28 = call float @llvm.SI.load.const(<16 x i8> %22, i32 48) - %29 = call float @llvm.SI.load.const(<16 x i8> %22, i32 52) - %30 = call float @llvm.SI.load.const(<16 x i8> %22, i32 56) - %31 = call float @llvm.SI.load.const(<16 x i8> %22, i32 64) - %32 = call float @llvm.SI.load.const(<16 x i8> %22, i32 68) - %33 = call float @llvm.SI.load.const(<16 x i8> %22, i32 72) - %34 = call float @llvm.SI.load.const(<16 x i8> %22, i32 76) - %35 = call float @llvm.SI.load.const(<16 x i8> %22, i32 128) - %36 = call float @llvm.SI.load.const(<16 x i8> %22, i32 132) - %37 = call float @llvm.SI.load.const(<16 x i8> %22, i32 144) - %38 = call float @llvm.SI.load.const(<16 x i8> %22, i32 148) - %39 = call float @llvm.SI.load.const(<16 x i8> %22, i32 152) - %40 = call float @llvm.SI.load.const(<16 x i8> %22, i32 160) - %41 = call float @llvm.SI.load.const(<16 x i8> %22, i32 164) - %42 = call float @llvm.SI.load.const(<16 x i8> %22, i32 168) - %43 = call float @llvm.SI.load.const(<16 x i8> %22, i32 172) - %44 = call float @llvm.SI.load.const(<16 x i8> %22, i32 176) - %45 = call float @llvm.SI.load.const(<16 x i8> %22, i32 180) - %46 = call float @llvm.SI.load.const(<16 x i8> %22, i32 184) - %47 = call float @llvm.SI.load.const(<16 x i8> %22, i32 192) - %48 = call float @llvm.SI.load.const(<16 x i8> %22, i32 196) - %49 = call float @llvm.SI.load.const(<16 x i8> %22, i32 200) - %50 = call float @llvm.SI.load.const(<16 x i8> %22, i32 208) - %51 = call float @llvm.SI.load.const(<16 x i8> %22, i32 212) - %52 = call float @llvm.SI.load.const(<16 x i8> %22, i32 216) - %53 = call float @llvm.SI.load.const(<16 x i8> %22, i32 220) - %54 = call float @llvm.SI.load.const(<16 x i8> %22, i32 236) - %55 = call float @llvm.SI.load.const(<16 x i8> %22, i32 240) - %56 = call float @llvm.SI.load.const(<16 x i8> %22, i32 244) - %57 = call float @llvm.SI.load.const(<16 x i8> %22, i32 248) - %58 = call float @llvm.SI.load.const(<16 x i8> %22, i32 252) - %59 = call float @llvm.SI.load.const(<16 x i8> %22, i32 256) - %60 = call float @llvm.SI.load.const(<16 x i8> %22, i32 260) - %61 = call float @llvm.SI.load.const(<16 x i8> %22, i32 264) - %62 = call float @llvm.SI.load.const(<16 x i8> %22, i32 268) - %63 = call float @llvm.SI.load.const(<16 x i8> %22, i32 272) - %64 = call float @llvm.SI.load.const(<16 x i8> %22, i32 276) - %65 = call float @llvm.SI.load.const(<16 x i8> %22, i32 280) - %66 = call float @llvm.SI.load.const(<16 x i8> %22, i32 284) - %67 = call float @llvm.SI.load.const(<16 x i8> %22, i32 288) - %68 = call float @llvm.SI.load.const(<16 x i8> %22, i32 292) - %69 = call float @llvm.SI.load.const(<16 x i8> %22, i32 464) - %70 = call float @llvm.SI.load.const(<16 x i8> %22, i32 468) - %71 = call float @llvm.SI.load.const(<16 x i8> %22, i32 472) - %72 = call float @llvm.SI.load.const(<16 x i8> %22, i32 496) - %73 = call float @llvm.SI.load.const(<16 x i8> %22, i32 500) - %74 = call float @llvm.SI.load.const(<16 x i8> %22, i32 504) - %75 = call float @llvm.SI.load.const(<16 x i8> %22, i32 512) - %76 = call float @llvm.SI.load.const(<16 x i8> %22, i32 516) - %77 = call float @llvm.SI.load.const(<16 x i8> %22, i32 524) - %78 = call float @llvm.SI.load.const(<16 x i8> %22, i32 532) - %79 = call float @llvm.SI.load.const(<16 x i8> %22, i32 536) - %80 = call float @llvm.SI.load.const(<16 x i8> %22, i32 540) - %81 = call float @llvm.SI.load.const(<16 x i8> %22, i32 544) - %82 = call float @llvm.SI.load.const(<16 x i8> %22, i32 548) - %83 = call float @llvm.SI.load.const(<16 x i8> %22, i32 552) - %84 = call float @llvm.SI.load.const(<16 x i8> %22, i32 556) - %85 = call float @llvm.SI.load.const(<16 x i8> %22, i32 560) - %86 = call float @llvm.SI.load.const(<16 x i8> %22, i32 564) - %87 = call float @llvm.SI.load.const(<16 x i8> %22, i32 568) - %88 = call float @llvm.SI.load.const(<16 x i8> %22, i32 572) - %89 = call float @llvm.SI.load.const(<16 x i8> %22, i32 576) - %90 = call float @llvm.SI.load.const(<16 x i8> %22, i32 580) - %91 = call float @llvm.SI.load.const(<16 x i8> %22, i32 584) - %92 = call float @llvm.SI.load.const(<16 x i8> %22, i32 588) - %93 = call float @llvm.SI.load.const(<16 x i8> %22, i32 592) - %94 = call float @llvm.SI.load.const(<16 x i8> %22, i32 596) - %95 = call float @llvm.SI.load.const(<16 x i8> %22, i32 600) - %96 = call float @llvm.SI.load.const(<16 x i8> %22, i32 604) - %97 = call float @llvm.SI.load.const(<16 x i8> %22, i32 608) - %98 = call float @llvm.SI.load.const(<16 x i8> %22, i32 612) - %99 = call float @llvm.SI.load.const(<16 x i8> %22, i32 616) - %100 = call float @llvm.SI.load.const(<16 x i8> %22, i32 624) - %101 = call float @llvm.SI.load.const(<16 x i8> %22, i32 628) - %102 = call float @llvm.SI.load.const(<16 x i8> %22, i32 632) - %103 = call float @llvm.SI.load.const(<16 x i8> %22, i32 636) - %104 = call float @llvm.SI.load.const(<16 x i8> %22, i32 640) - %105 = call float @llvm.SI.load.const(<16 x i8> %22, i32 644) - %106 = call float @llvm.SI.load.const(<16 x i8> %22, i32 648) - %107 = call float @llvm.SI.load.const(<16 x i8> %22, i32 652) - %108 = call float @llvm.SI.load.const(<16 x i8> %22, i32 656) - %109 = call float @llvm.SI.load.const(<16 x i8> %22, i32 660) - %110 = call float @llvm.SI.load.const(<16 x i8> %22, i32 664) - %111 = call float @llvm.SI.load.const(<16 x i8> %22, i32 668) - %112 = call float @llvm.SI.load.const(<16 x i8> %22, i32 672) - %113 = call float @llvm.SI.load.const(<16 x i8> %22, i32 676) - %114 = call float @llvm.SI.load.const(<16 x i8> %22, i32 680) - %115 = call float @llvm.SI.load.const(<16 x i8> %22, i32 684) - %116 = call float @llvm.SI.load.const(<16 x i8> %22, i32 688) - %117 = call float @llvm.SI.load.const(<16 x i8> %22, i32 692) - %118 = call float @llvm.SI.load.const(<16 x i8> %22, i32 696) - %119 = call float @llvm.SI.load.const(<16 x i8> %22, i32 700) - %120 = call float @llvm.SI.load.const(<16 x i8> %22, i32 704) - %121 = call float @llvm.SI.load.const(<16 x i8> %22, i32 708) - %122 = call float @llvm.SI.load.const(<16 x i8> %22, i32 712) - %123 = call float @llvm.SI.load.const(<16 x i8> %22, i32 716) - %124 = call float @llvm.SI.load.const(<16 x i8> %22, i32 864) - %125 = call float @llvm.SI.load.const(<16 x i8> %22, i32 868) - %126 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 0 - %127 = load <32 x i8>, <32 x i8> addrspace(2)* %126, !tbaa !0 - %128 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 0 - %129 = load <16 x i8>, <16 x i8> addrspace(2)* %128, !tbaa !0 - %130 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 1 - %131 = load <32 x i8>, <32 x i8> addrspace(2)* %130, !tbaa !0 - %132 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 1 - %133 = load <16 x i8>, <16 x i8> addrspace(2)* %132, !tbaa !0 - %134 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 2 - %135 = load <32 x i8>, <32 x i8> addrspace(2)* %134, !tbaa !0 - %136 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 2 - %137 = load <16 x i8>, <16 x i8> addrspace(2)* %136, !tbaa !0 - %138 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 3 - %139 = load <32 x i8>, <32 x i8> addrspace(2)* %138, !tbaa !0 - %140 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 3 - %141 = load <16 x i8>, <16 x i8> addrspace(2)* %140, !tbaa !0 - %142 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 4 - %143 = load <32 x i8>, <32 x i8> addrspace(2)* %142, !tbaa !0 - %144 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 4 - %145 = load <16 x i8>, <16 x i8> addrspace(2)* %144, !tbaa !0 - %146 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 5 - %147 = load <32 x i8>, <32 x i8> addrspace(2)* %146, !tbaa !0 - %148 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 5 - %149 = load <16 x i8>, <16 x i8> addrspace(2)* %148, !tbaa !0 - %150 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 6 - %151 = load <32 x i8>, <32 x i8> addrspace(2)* %150, !tbaa !0 - %152 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 6 - %153 = load <16 x i8>, <16 x i8> addrspace(2)* %152, !tbaa !0 - %154 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 7 - %155 = load <32 x i8>, <32 x i8> addrspace(2)* %154, !tbaa !0 - %156 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 7 - %157 = load <16 x i8>, <16 x i8> addrspace(2)* %156, !tbaa !0 - %158 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 8 - %159 = load <32 x i8>, <32 x i8> addrspace(2)* %158, !tbaa !0 - %160 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 8 - %161 = load <16 x i8>, <16 x i8> addrspace(2)* %160, !tbaa !0 - %162 = fcmp ugt float %17, 0.000000e+00 - %163 = select i1 %162, float 1.000000e+00, float 0.000000e+00 - %164 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %4, <2 x i32> %6) - %165 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %4, <2 x i32> %6) - %166 = call float @llvm.SI.fs.interp(i32 2, i32 0, i32 %4, <2 x i32> %6) - %167 = call float @llvm.SI.fs.interp(i32 3, i32 0, i32 %4, <2 x i32> %6) - %168 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %4, <2 x i32> %6) - %169 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %4, <2 x i32> %6) - %170 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %4, <2 x i32> %6) - %171 = call float @llvm.SI.fs.interp(i32 3, i32 1, i32 %4, <2 x i32> %6) - %172 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %4, <2 x i32> %6) - %173 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %4, <2 x i32> %6) - %174 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %4, <2 x i32> %6) - %175 = call float @llvm.SI.fs.interp(i32 3, i32 2, i32 %4, <2 x i32> %6) - %176 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %4, <2 x i32> %6) - %177 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %4, <2 x i32> %6) - %178 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %4, <2 x i32> %6) - %179 = call float @llvm.SI.fs.interp(i32 3, i32 3, i32 %4, <2 x i32> %6) - %180 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %4, <2 x i32> %6) - %181 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %4, <2 x i32> %6) - %182 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %4, <2 x i32> %6) - %183 = call float @llvm.SI.fs.interp(i32 3, i32 4, i32 %4, <2 x i32> %6) - %184 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %4, <2 x i32> %6) - %185 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %4, <2 x i32> %6) - %186 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %4, <2 x i32> %6) - %187 = call float @llvm.SI.fs.interp(i32 3, i32 5, i32 %4, <2 x i32> %6) - %188 = call float @llvm.SI.fs.interp(i32 0, i32 6, i32 %4, <2 x i32> %6) - %189 = call float @llvm.SI.fs.interp(i32 1, i32 6, i32 %4, <2 x i32> %6) - %190 = call float @llvm.SI.fs.interp(i32 2, i32 6, i32 %4, <2 x i32> %6) - %191 = call float @llvm.SI.fs.interp(i32 3, i32 6, i32 %4, <2 x i32> %6) - %192 = call float @llvm.SI.fs.interp(i32 0, i32 7, i32 %4, <2 x i32> %6) - %193 = call float @llvm.SI.fs.interp(i32 1, i32 7, i32 %4, <2 x i32> %6) - %194 = call float @llvm.SI.fs.interp(i32 2, i32 7, i32 %4, <2 x i32> %6) - %195 = call float @llvm.SI.fs.interp(i32 3, i32 7, i32 %4, <2 x i32> %6) - %196 = fmul float %14, %124 - %197 = fadd float %196, %125 - %198 = call float @llvm.AMDIL.clamp.(float %163, float 0.000000e+00, float 1.000000e+00) - %199 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00) - %200 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00) - %201 = call float @llvm.AMDIL.clamp.(float 1.000000e+00, float 0.000000e+00, float 1.000000e+00) - %202 = bitcast float %198 to i32 - %203 = icmp ne i32 %202, 0 - %. = select i1 %203, float -1.000000e+00, float 1.000000e+00 - %204 = fsub float -0.000000e+00, %164 - %205 = fadd float %44, %204 - %206 = fsub float -0.000000e+00, %165 - %207 = fadd float %45, %206 - %208 = fsub float -0.000000e+00, %166 - %209 = fadd float %46, %208 - %210 = fmul float %205, %205 - %211 = fmul float %207, %207 - %212 = fadd float %211, %210 - %213 = fmul float %209, %209 - %214 = fadd float %212, %213 - %215 = call float @llvm.amdgcn.rsq.f32(float %214) - %216 = fmul float %205, %215 - %217 = fmul float %207, %215 - %218 = fmul float %209, %215 - %219 = fmul float %., %54 - %220 = fmul float %13, %47 - %221 = fmul float %197, %48 - %222 = bitcast float %174 to i32 - %223 = bitcast float %175 to i32 - %224 = insertelement <2 x i32> undef, i32 %222, i32 0 - %225 = insertelement <2 x i32> %224, i32 %223, i32 1 - %226 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %225, <32 x i8> %131, <16 x i8> %133, i32 2) - %227 = extractelement <4 x float> %226, i32 0 - %228 = extractelement <4 x float> %226, i32 1 - %229 = extractelement <4 x float> %226, i32 2 - %230 = extractelement <4 x float> %226, i32 3 - %231 = fmul float %227, 0x4012611180000000 - %232 = fmul float %228, 0x4012611180000000 - %233 = fmul float %229, 0x4012611180000000 - %one.sub.a.i = fsub float 1.000000e+00, %27 - %result.i = fadd float %231, %one.sub.a.i - %one.sub.a.i43 = fsub float 1.000000e+00, %27 - %result.i44 = fadd float %232, %one.sub.a.i43 - %one.sub.a.i41 = fsub float 1.000000e+00, %27 - %result.i42 = fadd float %233, %one.sub.a.i41 - %234 = fmul float %216, %184 - %235 = fmul float %217, %185 - %236 = fadd float %235, %234 - %237 = fmul float %218, %186 - %238 = fadd float %236, %237 - %239 = fmul float %216, %187 - %240 = fmul float %217, %188 - %241 = fadd float %240, %239 - %242 = fmul float %218, %189 - %243 = fadd float %241, %242 - %244 = fmul float %216, %190 - %245 = fmul float %217, %191 - %246 = fadd float %245, %244 - %247 = fmul float %218, %192 - %248 = fadd float %246, %247 - %249 = call float @llvm.AMDIL.clamp.(float %248, float 0.000000e+00, float 1.000000e+00) - %250 = fmul float %214, 0x3F5A36E2E0000000 - %251 = call float @llvm.AMDIL.clamp.(float %250, float 0.000000e+00, float 1.000000e+00) - %252 = fsub float -0.000000e+00, %251 - %253 = fadd float 1.000000e+00, %252 - %254 = call float @llvm.pow.f32(float %249, float 2.500000e-01) - %255 = fmul float %39, %254 - %256 = fmul float %238, %255 - %257 = fmul float %243, %255 - %258 = fmul float %256, %230 - %259 = fmul float %257, %230 - %260 = fadd float %249, 0x3EE4F8B580000000 - %261 = fsub float -0.000000e+00, %249 - %262 = fadd float 1.000000e+00, %261 - %263 = fmul float 1.200000e+01, %262 - %264 = fadd float %263, 4.000000e+00 - %265 = fsub float -0.000000e+00, %264 - %266 = fmul float %265, %260 - %267 = fsub float -0.000000e+00, %264 - %268 = fmul float %267, %260 - %269 = fsub float -0.000000e+00, %264 - %270 = fmul float %269, %260 - %271 = fdiv float 1.000000e+00, %266 - %272 = fdiv float 1.000000e+00, %268 - %273 = fdiv float 1.000000e+00, %270 - %274 = fmul float %258, %271 - %275 = fmul float %259, %272 - %276 = fmul float %260, %273 + %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg, i64 0, i32 0 + %tmp21 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0 + %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 0) + %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 4) + %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 8) + %tmp25 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 12) + %tmp26 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 28) + %tmp27 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 48) + %tmp28 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 52) + %tmp29 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 56) + %tmp30 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 64) + %tmp31 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 68) + %tmp32 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 72) + %tmp33 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 76) + %tmp34 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 128) + %tmp35 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 132) + %tmp36 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 144) + %tmp37 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 148) + %tmp38 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 152) + %tmp39 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 160) + %tmp40 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 164) + %tmp41 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 168) + %tmp42 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 172) + %tmp43 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 176) + %tmp44 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 180) + %tmp45 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 184) + %tmp46 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 192) + %tmp47 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 196) + %tmp48 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 200) + %tmp49 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 208) + %tmp50 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 212) + %tmp51 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 216) + %tmp52 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 220) + %tmp53 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 236) + %tmp54 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 240) + %tmp55 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 244) + %tmp56 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 248) + %tmp57 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 252) + %tmp58 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 256) + %tmp59 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 260) + %tmp60 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 264) + %tmp61 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 268) + %tmp62 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 272) + %tmp63 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 276) + %tmp64 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 280) + %tmp65 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 284) + %tmp66 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 288) + %tmp67 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 292) + %tmp68 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 464) + %tmp69 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 468) + %tmp70 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 472) + %tmp71 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 496) + %tmp72 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 500) + %tmp73 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 504) + %tmp74 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 512) + %tmp75 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 516) + %tmp76 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 524) + %tmp77 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 532) + %tmp78 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 536) + %tmp79 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 540) + %tmp80 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 544) + %tmp81 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 548) + %tmp82 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 552) + %tmp83 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 556) + %tmp84 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 560) + %tmp85 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 564) + %tmp86 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 568) + %tmp87 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 572) + %tmp88 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 576) + %tmp89 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 580) + %tmp90 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 584) + %tmp91 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 588) + %tmp92 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 592) + %tmp93 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 596) + %tmp94 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 600) + %tmp95 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 604) + %tmp96 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 608) + %tmp97 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 612) + %tmp98 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 616) + %tmp99 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 624) + %tmp100 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 628) + %tmp101 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 632) + %tmp102 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 636) + %tmp103 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 640) + %tmp104 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 644) + %tmp105 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 648) + %tmp106 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 652) + %tmp107 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 656) + %tmp108 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 660) + %tmp109 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 664) + %tmp110 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 668) + %tmp111 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 672) + %tmp112 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 676) + %tmp113 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 680) + %tmp114 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 684) + %tmp115 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 688) + %tmp116 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 692) + %tmp117 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 696) + %tmp118 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 700) + %tmp119 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 704) + %tmp120 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 708) + %tmp121 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 712) + %tmp122 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 716) + %tmp123 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 864) + %tmp124 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 868) + %tmp125 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 0 + %tmp126 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp125, !tbaa !0 + %tmp127 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 0 + %tmp128 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp127, !tbaa !0 + %tmp129 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 1 + %tmp130 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp129, !tbaa !0 + %tmp131 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 1 + %tmp132 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp131, !tbaa !0 + %tmp133 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 2 + %tmp134 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp133, !tbaa !0 + %tmp135 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 2 + %tmp136 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp135, !tbaa !0 + %tmp137 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 3 + %tmp138 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp137, !tbaa !0 + %tmp139 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 3 + %tmp140 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp139, !tbaa !0 + %tmp141 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 4 + %tmp142 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp141, !tbaa !0 + %tmp143 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 4 + %tmp144 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp143, !tbaa !0 + %tmp145 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 5 + %tmp146 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp145, !tbaa !0 + %tmp147 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 5 + %tmp148 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp147, !tbaa !0 + %tmp149 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 6 + %tmp150 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp149, !tbaa !0 + %tmp151 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 6 + %tmp152 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp151, !tbaa !0 + %tmp153 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 7 + %tmp154 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp153, !tbaa !0 + %tmp155 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 7 + %tmp156 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp155, !tbaa !0 + %tmp157 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %arg2, i64 0, i32 8 + %tmp158 = load <32 x i8>, <32 x i8> addrspace(2)* %tmp157, !tbaa !0 + %tmp159 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 8 + %tmp160 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp159, !tbaa !0 + %tmp161 = fcmp ugt float %arg17, 0.000000e+00 + %tmp162 = select i1 %tmp161, float 1.000000e+00, float 0.000000e+00 + %tmp163 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg4, <2 x i32> %arg6) + %tmp164 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg4, <2 x i32> %arg6) + %tmp165 = call float @llvm.SI.fs.interp(i32 2, i32 0, i32 %arg4, <2 x i32> %arg6) + %tmp166 = call float @llvm.SI.fs.interp(i32 3, i32 0, i32 %arg4, <2 x i32> %arg6) + %tmp167 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %arg4, <2 x i32> %arg6) + %tmp168 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %arg4, <2 x i32> %arg6) + %tmp169 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %arg4, <2 x i32> %arg6) + %tmp170 = call float @llvm.SI.fs.interp(i32 3, i32 1, i32 %arg4, <2 x i32> %arg6) + %tmp171 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %arg4, <2 x i32> %arg6) + %tmp172 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %arg4, <2 x i32> %arg6) + %tmp173 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %arg4, <2 x i32> %arg6) + %tmp174 = call float @llvm.SI.fs.interp(i32 3, i32 2, i32 %arg4, <2 x i32> %arg6) + %tmp175 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %arg4, <2 x i32> %arg6) + %tmp176 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %arg4, <2 x i32> %arg6) + %tmp177 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %arg4, <2 x i32> %arg6) + %tmp178 = call float @llvm.SI.fs.interp(i32 3, i32 3, i32 %arg4, <2 x i32> %arg6) + %tmp179 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %arg4, <2 x i32> %arg6) + %tmp180 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %arg4, <2 x i32> %arg6) + %tmp181 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %arg4, <2 x i32> %arg6) + %tmp182 = call float @llvm.SI.fs.interp(i32 3, i32 4, i32 %arg4, <2 x i32> %arg6) + %tmp183 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %arg4, <2 x i32> %arg6) + %tmp184 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %arg4, <2 x i32> %arg6) + %tmp185 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %arg4, <2 x i32> %arg6) + %tmp186 = call float @llvm.SI.fs.interp(i32 3, i32 5, i32 %arg4, <2 x i32> %arg6) + %tmp187 = call float @llvm.SI.fs.interp(i32 0, i32 6, i32 %arg4, <2 x i32> %arg6) + %tmp188 = call float @llvm.SI.fs.interp(i32 1, i32 6, i32 %arg4, <2 x i32> %arg6) + %tmp189 = call float @llvm.SI.fs.interp(i32 2, i32 6, i32 %arg4, <2 x i32> %arg6) + %tmp190 = call float @llvm.SI.fs.interp(i32 3, i32 6, i32 %arg4, <2 x i32> %arg6) + %tmp191 = call float @llvm.SI.fs.interp(i32 0, i32 7, i32 %arg4, <2 x i32> %arg6) + %tmp192 = call float @llvm.SI.fs.interp(i32 1, i32 7, i32 %arg4, <2 x i32> %arg6) + %tmp193 = call float @llvm.SI.fs.interp(i32 2, i32 7, i32 %arg4, <2 x i32> %arg6) + %tmp194 = call float @llvm.SI.fs.interp(i32 3, i32 7, i32 %arg4, <2 x i32> %arg6) + %tmp195 = fmul float %arg14, %tmp123 + %tmp196 = fadd float %tmp195, %tmp124 + %tmp197 = call float @llvm.AMDIL.clamp.(float %tmp162, float 0.000000e+00, float 1.000000e+00) + %tmp198 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00) + %tmp199 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00) + %tmp200 = call float @llvm.AMDIL.clamp.(float 1.000000e+00, float 0.000000e+00, float 1.000000e+00) + %tmp201 = bitcast float %tmp197 to i32 + %tmp202 = icmp ne i32 %tmp201, 0 + %. = select i1 %tmp202, float -1.000000e+00, float 1.000000e+00 + %tmp203 = fsub float -0.000000e+00, %tmp163 + %tmp204 = fadd float %tmp43, %tmp203 + %tmp205 = fsub float -0.000000e+00, %tmp164 + %tmp206 = fadd float %tmp44, %tmp205 + %tmp207 = fsub float -0.000000e+00, %tmp165 + %tmp208 = fadd float %tmp45, %tmp207 + %tmp209 = fmul float %tmp204, %tmp204 + %tmp210 = fmul float %tmp206, %tmp206 + %tmp211 = fadd float %tmp210, %tmp209 + %tmp212 = fmul float %tmp208, %tmp208 + %tmp213 = fadd float %tmp211, %tmp212 + %tmp214 = call float @llvm.amdgcn.rsq.f32(float %tmp213) + %tmp215 = fmul float %tmp204, %tmp214 + %tmp216 = fmul float %tmp206, %tmp214 + %tmp217 = fmul float %tmp208, %tmp214 + %tmp218 = fmul float %., %tmp53 + %tmp219 = fmul float %arg13, %tmp46 + %tmp220 = fmul float %tmp196, %tmp47 + %tmp221 = bitcast float %tmp173 to i32 + %tmp222 = bitcast float %tmp174 to i32 + %tmp223 = insertelement <2 x i32> undef, i32 %tmp221, i32 0 + %tmp224 = insertelement <2 x i32> %tmp223, i32 %tmp222, i32 1 + %tmp225 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp224, <32 x i8> %tmp130, <16 x i8> %tmp132, i32 2) + %tmp226 = extractelement <4 x float> %tmp225, i32 0 + %tmp227 = extractelement <4 x float> %tmp225, i32 1 + %tmp228 = extractelement <4 x float> %tmp225, i32 2 + %tmp229 = extractelement <4 x float> %tmp225, i32 3 + %tmp230 = fmul float %tmp226, 0x4012611180000000 + %tmp231 = fmul float %tmp227, 0x4012611180000000 + %tmp232 = fmul float %tmp228, 0x4012611180000000 + %one.sub.a.i = fsub float 1.000000e+00, %tmp26 + %result.i = fadd float %tmp230, %one.sub.a.i + %one.sub.a.i43 = fsub float 1.000000e+00, %tmp26 + %result.i44 = fadd float %tmp231, %one.sub.a.i43 + %one.sub.a.i41 = fsub float 1.000000e+00, %tmp26 + %result.i42 = fadd float %tmp232, %one.sub.a.i41 + %tmp233 = fmul float %tmp215, %tmp183 + %tmp234 = fmul float %tmp216, %tmp184 + %tmp235 = fadd float %tmp234, %tmp233 + %tmp236 = fmul float %tmp217, %tmp185 + %tmp237 = fadd float %tmp235, %tmp236 + %tmp238 = fmul float %tmp215, %tmp186 + %tmp239 = fmul float %tmp216, %tmp187 + %tmp240 = fadd float %tmp239, %tmp238 + %tmp241 = fmul float %tmp217, %tmp188 + %tmp242 = fadd float %tmp240, %tmp241 + %tmp243 = fmul float %tmp215, %tmp189 + %tmp244 = fmul float %tmp216, %tmp190 + %tmp245 = fadd float %tmp244, %tmp243 + %tmp246 = fmul float %tmp217, %tmp191 + %tmp247 = fadd float %tmp245, %tmp246 + %tmp248 = call float @llvm.AMDIL.clamp.(float %tmp247, float 0.000000e+00, float 1.000000e+00) + %tmp249 = fmul float %tmp213, 0x3F5A36E2E0000000 + %tmp250 = call float @llvm.AMDIL.clamp.(float %tmp249, float 0.000000e+00, float 1.000000e+00) + %tmp251 = fsub float -0.000000e+00, %tmp250 + %tmp252 = fadd float 1.000000e+00, %tmp251 + %tmp253 = call float @llvm.pow.f32(float %tmp248, float 2.500000e-01) + %tmp254 = fmul float %tmp38, %tmp253 + %tmp255 = fmul float %tmp237, %tmp254 + %tmp256 = fmul float %tmp242, %tmp254 + %tmp257 = fmul float %tmp255, %tmp229 + %tmp258 = fmul float %tmp256, %tmp229 + %tmp259 = fadd float %tmp248, 0x3EE4F8B580000000 + %tmp260 = fsub float -0.000000e+00, %tmp248 + %tmp261 = fadd float 1.000000e+00, %tmp260 + %tmp262 = fmul float 1.200000e+01, %tmp261 + %tmp263 = fadd float %tmp262, 4.000000e+00 + %tmp264 = fsub float -0.000000e+00, %tmp263 + %tmp265 = fmul float %tmp264, %tmp259 + %tmp266 = fsub float -0.000000e+00, %tmp263 + %tmp267 = fmul float %tmp266, %tmp259 + %tmp268 = fsub float -0.000000e+00, %tmp263 + %tmp269 = fmul float %tmp268, %tmp259 + %tmp270 = fdiv float 1.000000e+00, %tmp265 + %tmp271 = fdiv float 1.000000e+00, %tmp267 + %tmp272 = fdiv float 1.000000e+00, %tmp269 + %tmp273 = fmul float %tmp257, %tmp270 + %tmp274 = fmul float %tmp258, %tmp271 + %tmp275 = fmul float %tmp259, %tmp272 br label %LOOP LOOP: ; preds = %LOOP, %main_body - %temp144.0 = phi float [ 1.000000e+00, %main_body ], [ %289, %LOOP ] - %temp168.0 = phi float [ %176, %main_body ], [ %285, %LOOP ] - %temp169.0 = phi float [ %177, %main_body ], [ %286, %LOOP ] - %temp170.0 = phi float [ %253, %main_body ], [ %287, %LOOP ] - %277 = bitcast float %temp168.0 to i32 - %278 = bitcast float %temp169.0 to i32 - %279 = insertelement <4 x i32> undef, i32 %277, i32 0 - %280 = insertelement <4 x i32> %279, i32 %278, i32 1 - %281 = insertelement <4 x i32> %280, i32 0, i32 2 - %282 = insertelement <4 x i32> %281, i32 undef, i32 3 - %283 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %282, <32 x i8> %147, <16 x i8> %149, i32 2) - %284 = extractelement <4 x float> %283, i32 3 - %285 = fadd float %temp168.0, %274 - %286 = fadd float %temp169.0, %275 - %287 = fadd float %temp170.0, %276 - %288 = fsub float -0.000000e+00, %284 - %289 = fadd float %287, %288 - %290 = fcmp oge float 0.000000e+00, %289 - %291 = sext i1 %290 to i32 - %292 = bitcast i32 %291 to float - %293 = bitcast float %292 to i32 - %294 = icmp ne i32 %293, 0 - br i1 %294, label %IF189, label %LOOP + %temp144.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp288, %LOOP ] + %temp168.0 = phi float [ %tmp175, %main_body ], [ %tmp284, %LOOP ] + %temp169.0 = phi float [ %tmp176, %main_body ], [ %tmp285, %LOOP ] + %temp170.0 = phi float [ %tmp252, %main_body ], [ %tmp286, %LOOP ] + %tmp276 = bitcast float %temp168.0 to i32 + %tmp277 = bitcast float %temp169.0 to i32 + %tmp278 = insertelement <4 x i32> undef, i32 %tmp276, i32 0 + %tmp279 = insertelement <4 x i32> %tmp278, i32 %tmp277, i32 1 + %tmp280 = insertelement <4 x i32> %tmp279, i32 0, i32 2 + %tmp281 = insertelement <4 x i32> %tmp280, i32 undef, i32 3 + %tmp282 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %tmp281, <32 x i8> %tmp146, <16 x i8> %tmp148, i32 2) + %tmp283 = extractelement <4 x float> %tmp282, i32 3 + %tmp284 = fadd float %temp168.0, %tmp273 + %tmp285 = fadd float %temp169.0, %tmp274 + %tmp286 = fadd float %temp170.0, %tmp275 + %tmp287 = fsub float -0.000000e+00, %tmp283 + %tmp288 = fadd float %tmp286, %tmp287 + %tmp289 = fcmp oge float 0.000000e+00, %tmp288 + %tmp290 = sext i1 %tmp289 to i32 + %tmp291 = bitcast i32 %tmp290 to float + %tmp292 = bitcast float %tmp291 to i32 + %tmp293 = icmp ne i32 %tmp292, 0 + br i1 %tmp293, label %IF189, label %LOOP IF189: ; preds = %LOOP - %295 = extractelement <4 x float> %283, i32 0 - %296 = extractelement <4 x float> %283, i32 1 - %297 = extractelement <4 x float> %283, i32 2 - %298 = fsub float -0.000000e+00, %289 - %299 = fadd float %temp144.0, %298 - %300 = fdiv float 1.000000e+00, %299 - %301 = fmul float %289, %300 - %302 = fadd float %301, -1.000000e+00 - %303 = fmul float %302, %274 - %304 = fadd float %303, %285 - %305 = fmul float %302, %275 - %306 = fadd float %305, %286 - %307 = fsub float -0.000000e+00, %176 - %308 = fadd float %304, %307 - %309 = fsub float -0.000000e+00, %177 - %310 = fadd float %306, %309 - %311 = fadd float %176, %308 - %312 = fadd float %177, %310 - %313 = fmul float %308, %67 - %314 = fmul float %310, %68 - %315 = fmul float %313, %55 - %316 = fmul float %313, %56 - %317 = fmul float %314, %57 - %318 = fadd float %317, %315 - %319 = fmul float %314, %58 - %320 = fadd float %319, %316 - %321 = fadd float %178, %318 - %322 = fadd float %179, %320 - %323 = fmul float %313, %59 - %324 = fmul float %313, %60 - %325 = fmul float %313, %61 - %326 = fmul float %313, %62 - %327 = fmul float %314, %63 - %328 = fadd float %327, %323 - %329 = fmul float %314, %64 - %330 = fadd float %329, %324 - %331 = fmul float %314, %65 - %332 = fadd float %331, %325 - %333 = fmul float %314, %66 - %334 = fadd float %333, %326 - %335 = fadd float %168, %328 - %336 = fadd float %169, %330 - %337 = fadd float %170, %332 - %338 = fadd float %171, %334 - %339 = bitcast float %335 to i32 - %340 = bitcast float %336 to i32 - %341 = insertelement <2 x i32> undef, i32 %339, i32 0 - %342 = insertelement <2 x i32> %341, i32 %340, i32 1 - %343 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %342, <32 x i8> %135, <16 x i8> %137, i32 2) - %344 = extractelement <4 x float> %343, i32 0 - %345 = extractelement <4 x float> %343, i32 1 - %346 = extractelement <4 x float> %343, i32 2 - %347 = extractelement <4 x float> %343, i32 3 - %348 = fmul float %344, %23 - %349 = fmul float %345, %24 - %350 = fmul float %346, %25 - %351 = fmul float %347, %26 - %352 = fmul float %348, %180 - %353 = fmul float %349, %181 - %354 = fmul float %350, %182 - %355 = fmul float %351, %183 - %356 = fsub float -0.000000e+00, %347 - %357 = fadd float 1.000000e+00, %356 - %358 = fmul float %357, %49 - %one.sub.a.i37 = fsub float 1.000000e+00, %358 - %one.sub.ac.i38 = fmul float %one.sub.a.i37, %352 - %mul.i39 = fmul float %344, %352 + %tmp294 = extractelement <4 x float> %tmp282, i32 0 + %tmp295 = extractelement <4 x float> %tmp282, i32 1 + %tmp296 = extractelement <4 x float> %tmp282, i32 2 + %tmp297 = fsub float -0.000000e+00, %tmp288 + %tmp298 = fadd float %temp144.0, %tmp297 + %tmp299 = fdiv float 1.000000e+00, %tmp298 + %tmp300 = fmul float %tmp288, %tmp299 + %tmp301 = fadd float %tmp300, -1.000000e+00 + %tmp302 = fmul float %tmp301, %tmp273 + %tmp303 = fadd float %tmp302, %tmp284 + %tmp304 = fmul float %tmp301, %tmp274 + %tmp305 = fadd float %tmp304, %tmp285 + %tmp306 = fsub float -0.000000e+00, %tmp175 + %tmp307 = fadd float %tmp303, %tmp306 + %tmp308 = fsub float -0.000000e+00, %tmp176 + %tmp309 = fadd float %tmp305, %tmp308 + %tmp310 = fadd float %tmp175, %tmp307 + %tmp311 = fadd float %tmp176, %tmp309 + %tmp312 = fmul float %tmp307, %tmp66 + %tmp313 = fmul float %tmp309, %tmp67 + %tmp314 = fmul float %tmp312, %tmp54 + %tmp315 = fmul float %tmp312, %tmp55 + %tmp316 = fmul float %tmp313, %tmp56 + %tmp317 = fadd float %tmp316, %tmp314 + %tmp318 = fmul float %tmp313, %tmp57 + %tmp319 = fadd float %tmp318, %tmp315 + %tmp320 = fadd float %tmp177, %tmp317 + %tmp321 = fadd float %tmp178, %tmp319 + %tmp322 = fmul float %tmp312, %tmp58 + %tmp323 = fmul float %tmp312, %tmp59 + %tmp324 = fmul float %tmp312, %tmp60 + %tmp325 = fmul float %tmp312, %tmp61 + %tmp326 = fmul float %tmp313, %tmp62 + %tmp327 = fadd float %tmp326, %tmp322 + %tmp328 = fmul float %tmp313, %tmp63 + %tmp329 = fadd float %tmp328, %tmp323 + %tmp330 = fmul float %tmp313, %tmp64 + %tmp331 = fadd float %tmp330, %tmp324 + %tmp332 = fmul float %tmp313, %tmp65 + %tmp333 = fadd float %tmp332, %tmp325 + %tmp334 = fadd float %tmp167, %tmp327 + %tmp335 = fadd float %tmp168, %tmp329 + %tmp336 = fadd float %tmp169, %tmp331 + %tmp337 = fadd float %tmp170, %tmp333 + %tmp338 = bitcast float %tmp334 to i32 + %tmp339 = bitcast float %tmp335 to i32 + %tmp340 = insertelement <2 x i32> undef, i32 %tmp338, i32 0 + %tmp341 = insertelement <2 x i32> %tmp340, i32 %tmp339, i32 1 + %tmp342 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp341, <32 x i8> %tmp134, <16 x i8> %tmp136, i32 2) + %tmp343 = extractelement <4 x float> %tmp342, i32 0 + %tmp344 = extractelement <4 x float> %tmp342, i32 1 + %tmp345 = extractelement <4 x float> %tmp342, i32 2 + %tmp346 = extractelement <4 x float> %tmp342, i32 3 + %tmp347 = fmul float %tmp343, %tmp22 + %tmp348 = fmul float %tmp344, %tmp23 + %tmp349 = fmul float %tmp345, %tmp24 + %tmp350 = fmul float %tmp346, %tmp25 + %tmp351 = fmul float %tmp347, %tmp179 + %tmp352 = fmul float %tmp348, %tmp180 + %tmp353 = fmul float %tmp349, %tmp181 + %tmp354 = fmul float %tmp350, %tmp182 + %tmp355 = fsub float -0.000000e+00, %tmp346 + %tmp356 = fadd float 1.000000e+00, %tmp355 + %tmp357 = fmul float %tmp356, %tmp48 + %one.sub.a.i37 = fsub float 1.000000e+00, %tmp357 + %one.sub.ac.i38 = fmul float %one.sub.a.i37, %tmp351 + %mul.i39 = fmul float %tmp343, %tmp351 %result.i40 = fadd float %mul.i39, %one.sub.ac.i38 - %one.sub.a.i33 = fsub float 1.000000e+00, %358 - %one.sub.ac.i34 = fmul float %one.sub.a.i33, %353 - %mul.i35 = fmul float %345, %353 + %one.sub.a.i33 = fsub float 1.000000e+00, %tmp357 + %one.sub.ac.i34 = fmul float %one.sub.a.i33, %tmp352 + %mul.i35 = fmul float %tmp344, %tmp352 %result.i36 = fadd float %mul.i35, %one.sub.ac.i34 - %one.sub.a.i29 = fsub float 1.000000e+00, %358 - %one.sub.ac.i30 = fmul float %one.sub.a.i29, %354 - %mul.i31 = fmul float %346, %354 + %one.sub.a.i29 = fsub float 1.000000e+00, %tmp357 + %one.sub.ac.i30 = fmul float %one.sub.a.i29, %tmp353 + %mul.i31 = fmul float %tmp345, %tmp353 %result.i32 = fadd float %mul.i31, %one.sub.ac.i30 - %359 = bitcast float %337 to i32 - %360 = bitcast float %338 to i32 - %361 = insertelement <2 x i32> undef, i32 %359, i32 0 - %362 = insertelement <2 x i32> %361, i32 %360, i32 1 - %363 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %362, <32 x i8> %151, <16 x i8> %153, i32 2) - %364 = extractelement <4 x float> %363, i32 2 - %365 = fmul float %result.i40, %result.i - %366 = fmul float %result.i36, %result.i44 - %367 = fmul float %result.i32, %result.i42 - %368 = fmul float %355, %230 - %369 = bitcast float %311 to i32 - %370 = bitcast float %312 to i32 - %371 = insertelement <2 x i32> undef, i32 %369, i32 0 - %372 = insertelement <2 x i32> %371, i32 %370, i32 1 - %373 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %372, <32 x i8> %139, <16 x i8> %141, i32 2) - %374 = extractelement <4 x float> %373, i32 0 - %375 = extractelement <4 x float> %373, i32 1 - %376 = extractelement <4 x float> %373, i32 2 - %377 = extractelement <4 x float> %373, i32 3 - %378 = fcmp olt float 0.000000e+00, %376 - %379 = sext i1 %378 to i32 - %380 = bitcast i32 %379 to float - %381 = bitcast float %380 to i32 - %382 = icmp ne i32 %381, 0 - %.224 = select i1 %382, float %375, float %374 - %.225 = select i1 %382, float %377, float %375 - %383 = bitcast float %321 to i32 - %384 = bitcast float %322 to i32 - %385 = insertelement <2 x i32> undef, i32 %383, i32 0 - %386 = insertelement <2 x i32> %385, i32 %384, i32 1 - %387 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %386, <32 x i8> %143, <16 x i8> %145, i32 2) - %388 = extractelement <4 x float> %387, i32 0 - %389 = extractelement <4 x float> %387, i32 1 - %390 = extractelement <4 x float> %387, i32 2 - %391 = extractelement <4 x float> %387, i32 3 - %392 = fcmp olt float 0.000000e+00, %390 - %393 = sext i1 %392 to i32 - %394 = bitcast i32 %393 to float - %395 = bitcast float %394 to i32 - %396 = icmp ne i32 %395, 0 - %temp112.1 = select i1 %396, float %389, float %388 - %temp113.1 = select i1 %396, float %391, float %389 - %397 = fmul float %.224, 2.000000e+00 - %398 = fadd float %397, -1.000000e+00 - %399 = fmul float %.225, 2.000000e+00 - %400 = fadd float %399, -1.000000e+00 - %401 = fmul float %temp112.1, 2.000000e+00 - %402 = fadd float %401, -1.000000e+00 - %403 = fmul float %temp113.1, 2.000000e+00 - %404 = fadd float %403, -1.000000e+00 - %405 = fsub float -0.000000e+00, %398 - %406 = fmul float %405, %35 - %407 = fsub float -0.000000e+00, %400 - %408 = fmul float %407, %35 - %409 = fsub float -0.000000e+00, %402 - %410 = fmul float %409, %36 - %411 = fsub float -0.000000e+00, %404 - %412 = fmul float %411, %36 - %413 = fmul float %410, %364 - %414 = fmul float %412, %364 - %415 = call float @fabs(float %406) - %416 = call float @fabs(float %408) - %417 = fsub float -0.000000e+00, %415 - %418 = fadd float 1.000000e+00, %417 - %419 = fsub float -0.000000e+00, %416 - %420 = fadd float 1.000000e+00, %419 - %421 = fmul float %418, %413 - %422 = fadd float %421, %406 - %423 = fmul float %420, %414 - %424 = fadd float %423, %408 - %425 = fmul float %422, %422 - %426 = fmul float %424, %424 - %427 = fadd float %425, %426 - %428 = fsub float -0.000000e+00, %427 - %429 = fadd float 0x3FF00068E0000000, %428 - %430 = call float @llvm.AMDIL.clamp.(float %429, float 0.000000e+00, float 1.000000e+00) - %431 = call float @llvm.amdgcn.rsq.f32(float %430) - %432 = fmul float %431, %430 - %433 = fsub float -0.000000e+00, %430 - %cmp = fcmp ogt float 0.000000e+00, %433 - %434 = select i1 %cmp, float %432, float 0.000000e+00 - %435 = fmul float %184, %422 - %436 = fmul float %185, %422 - %437 = fmul float %186, %422 - %438 = fmul float %187, %424 - %439 = fadd float %438, %435 - %440 = fmul float %188, %424 - %441 = fadd float %440, %436 - %442 = fmul float %189, %424 - %443 = fadd float %442, %437 - %444 = fmul float %190, %434 - %445 = fadd float %444, %439 - %446 = fmul float %191, %434 - %447 = fadd float %446, %441 - %448 = fmul float %192, %434 - %449 = fadd float %448, %443 - %450 = fmul float %445, %445 - %451 = fmul float %447, %447 - %452 = fadd float %451, %450 - %453 = fmul float %449, %449 - %454 = fadd float %452, %453 - %455 = call float @llvm.amdgcn.rsq.f32(float %454) - %456 = fmul float %445, %455 - %457 = fmul float %447, %455 - %458 = fmul float %449, %455 - %459 = fcmp olt float 0.000000e+00, %219 - %460 = sext i1 %459 to i32 - %461 = bitcast i32 %460 to float - %462 = bitcast float %461 to i32 - %463 = icmp ne i32 %462, 0 - br i1 %463, label %IF198, label %ENDIF197 + %tmp358 = bitcast float %tmp336 to i32 + %tmp359 = bitcast float %tmp337 to i32 + %tmp360 = insertelement <2 x i32> undef, i32 %tmp358, i32 0 + %tmp361 = insertelement <2 x i32> %tmp360, i32 %tmp359, i32 1 + %tmp362 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp361, <32 x i8> %tmp150, <16 x i8> %tmp152, i32 2) + %tmp363 = extractelement <4 x float> %tmp362, i32 2 + %tmp364 = fmul float %result.i40, %result.i + %tmp365 = fmul float %result.i36, %result.i44 + %tmp366 = fmul float %result.i32, %result.i42 + %tmp367 = fmul float %tmp354, %tmp229 + %tmp368 = bitcast float %tmp310 to i32 + %tmp369 = bitcast float %tmp311 to i32 + %tmp370 = insertelement <2 x i32> undef, i32 %tmp368, i32 0 + %tmp371 = insertelement <2 x i32> %tmp370, i32 %tmp369, i32 1 + %tmp372 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp371, <32 x i8> %tmp138, <16 x i8> %tmp140, i32 2) + %tmp373 = extractelement <4 x float> %tmp372, i32 0 + %tmp374 = extractelement <4 x float> %tmp372, i32 1 + %tmp375 = extractelement <4 x float> %tmp372, i32 2 + %tmp376 = extractelement <4 x float> %tmp372, i32 3 + %tmp377 = fcmp olt float 0.000000e+00, %tmp375 + %tmp378 = sext i1 %tmp377 to i32 + %tmp379 = bitcast i32 %tmp378 to float + %tmp380 = bitcast float %tmp379 to i32 + %tmp381 = icmp ne i32 %tmp380, 0 + %.224 = select i1 %tmp381, float %tmp374, float %tmp373 + %.225 = select i1 %tmp381, float %tmp376, float %tmp374 + %tmp382 = bitcast float %tmp320 to i32 + %tmp383 = bitcast float %tmp321 to i32 + %tmp384 = insertelement <2 x i32> undef, i32 %tmp382, i32 0 + %tmp385 = insertelement <2 x i32> %tmp384, i32 %tmp383, i32 1 + %tmp386 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp385, <32 x i8> %tmp142, <16 x i8> %tmp144, i32 2) + %tmp387 = extractelement <4 x float> %tmp386, i32 0 + %tmp388 = extractelement <4 x float> %tmp386, i32 1 + %tmp389 = extractelement <4 x float> %tmp386, i32 2 + %tmp390 = extractelement <4 x float> %tmp386, i32 3 + %tmp391 = fcmp olt float 0.000000e+00, %tmp389 + %tmp392 = sext i1 %tmp391 to i32 + %tmp393 = bitcast i32 %tmp392 to float + %tmp394 = bitcast float %tmp393 to i32 + %tmp395 = icmp ne i32 %tmp394, 0 + %temp112.1 = select i1 %tmp395, float %tmp388, float %tmp387 + %temp113.1 = select i1 %tmp395, float %tmp390, float %tmp388 + %tmp396 = fmul float %.224, 2.000000e+00 + %tmp397 = fadd float %tmp396, -1.000000e+00 + %tmp398 = fmul float %.225, 2.000000e+00 + %tmp399 = fadd float %tmp398, -1.000000e+00 + %tmp400 = fmul float %temp112.1, 2.000000e+00 + %tmp401 = fadd float %tmp400, -1.000000e+00 + %tmp402 = fmul float %temp113.1, 2.000000e+00 + %tmp403 = fadd float %tmp402, -1.000000e+00 + %tmp404 = fsub float -0.000000e+00, %tmp397 + %tmp405 = fmul float %tmp404, %tmp34 + %tmp406 = fsub float -0.000000e+00, %tmp399 + %tmp407 = fmul float %tmp406, %tmp34 + %tmp408 = fsub float -0.000000e+00, %tmp401 + %tmp409 = fmul float %tmp408, %tmp35 + %tmp410 = fsub float -0.000000e+00, %tmp403 + %tmp411 = fmul float %tmp410, %tmp35 + %tmp412 = fmul float %tmp409, %tmp363 + %tmp413 = fmul float %tmp411, %tmp363 + %tmp414 = call float @fabs(float %tmp405) + %tmp415 = call float @fabs(float %tmp407) + %tmp416 = fsub float -0.000000e+00, %tmp414 + %tmp417 = fadd float 1.000000e+00, %tmp416 + %tmp418 = fsub float -0.000000e+00, %tmp415 + %tmp419 = fadd float 1.000000e+00, %tmp418 + %tmp420 = fmul float %tmp417, %tmp412 + %tmp421 = fadd float %tmp420, %tmp405 + %tmp422 = fmul float %tmp419, %tmp413 + %tmp423 = fadd float %tmp422, %tmp407 + %tmp424 = fmul float %tmp421, %tmp421 + %tmp425 = fmul float %tmp423, %tmp423 + %tmp426 = fadd float %tmp424, %tmp425 + %tmp427 = fsub float -0.000000e+00, %tmp426 + %tmp428 = fadd float 0x3FF00068E0000000, %tmp427 + %tmp429 = call float @llvm.AMDIL.clamp.(float %tmp428, float 0.000000e+00, float 1.000000e+00) + %tmp430 = call float @llvm.amdgcn.rsq.f32(float %tmp429) + %tmp431 = fmul float %tmp430, %tmp429 + %tmp432 = fsub float -0.000000e+00, %tmp429 + %cmp = fcmp ogt float 0.000000e+00, %tmp432 + %tmp433 = select i1 %cmp, float %tmp431, float 0.000000e+00 + %tmp434 = fmul float %tmp183, %tmp421 + %tmp435 = fmul float %tmp184, %tmp421 + %tmp436 = fmul float %tmp185, %tmp421 + %tmp437 = fmul float %tmp186, %tmp423 + %tmp438 = fadd float %tmp437, %tmp434 + %tmp439 = fmul float %tmp187, %tmp423 + %tmp440 = fadd float %tmp439, %tmp435 + %tmp441 = fmul float %tmp188, %tmp423 + %tmp442 = fadd float %tmp441, %tmp436 + %tmp443 = fmul float %tmp189, %tmp433 + %tmp444 = fadd float %tmp443, %tmp438 + %tmp445 = fmul float %tmp190, %tmp433 + %tmp446 = fadd float %tmp445, %tmp440 + %tmp447 = fmul float %tmp191, %tmp433 + %tmp448 = fadd float %tmp447, %tmp442 + %tmp449 = fmul float %tmp444, %tmp444 + %tmp450 = fmul float %tmp446, %tmp446 + %tmp451 = fadd float %tmp450, %tmp449 + %tmp452 = fmul float %tmp448, %tmp448 + %tmp453 = fadd float %tmp451, %tmp452 + %tmp454 = call float @llvm.amdgcn.rsq.f32(float %tmp453) + %tmp455 = fmul float %tmp444, %tmp454 + %tmp456 = fmul float %tmp446, %tmp454 + %tmp457 = fmul float %tmp448, %tmp454 + %tmp458 = fcmp olt float 0.000000e+00, %tmp218 + %tmp459 = sext i1 %tmp458 to i32 + %tmp460 = bitcast i32 %tmp459 to float + %tmp461 = bitcast float %tmp460 to i32 + %tmp462 = icmp ne i32 %tmp461, 0 + br i1 %tmp462, label %IF198, label %ENDIF197 IF198: ; preds = %IF189 - %464 = fsub float -0.000000e+00, %456 - %465 = fsub float -0.000000e+00, %457 - %466 = fsub float -0.000000e+00, %458 + %tmp463 = fsub float -0.000000e+00, %tmp455 + %tmp464 = fsub float -0.000000e+00, %tmp456 + %tmp465 = fsub float -0.000000e+00, %tmp457 br label %ENDIF197 ENDIF197: ; preds = %IF198, %IF189 - %temp14.0 = phi float [ %466, %IF198 ], [ %458, %IF189 ] - %temp13.0 = phi float [ %465, %IF198 ], [ %457, %IF189 ] - %temp12.0 = phi float [ %464, %IF198 ], [ %456, %IF189 ] - %467 = bitcast float %220 to i32 - %468 = bitcast float %221 to i32 - %469 = insertelement <2 x i32> undef, i32 %467, i32 0 - %470 = insertelement <2 x i32> %469, i32 %468, i32 1 - %471 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %470, <32 x i8> %159, <16 x i8> %161, i32 2) - %472 = extractelement <4 x float> %471, i32 0 - %473 = extractelement <4 x float> %471, i32 1 - %474 = extractelement <4 x float> %471, i32 2 - %475 = extractelement <4 x float> %471, i32 3 - %476 = fmul float %472, %40 - %477 = fadd float %476, %41 - %478 = fmul float %473, %40 - %479 = fadd float %478, %41 - %480 = fmul float %474, %40 - %481 = fadd float %480, %41 - %482 = fmul float %475, %42 - %483 = fadd float %482, %43 - %484 = bitcast float %172 to i32 - %485 = bitcast float %173 to i32 - %486 = insertelement <2 x i32> undef, i32 %484, i32 0 - %487 = insertelement <2 x i32> %486, i32 %485, i32 1 - %488 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %487, <32 x i8> %155, <16 x i8> %157, i32 2) - %489 = extractelement <4 x float> %488, i32 0 - %490 = extractelement <4 x float> %488, i32 1 - %491 = extractelement <4 x float> %488, i32 2 - %492 = extractelement <4 x float> %488, i32 3 - %493 = fmul float %492, 3.200000e+01 - %494 = fadd float %493, -1.600000e+01 - %495 = call float @llvm.AMDIL.exp.(float %494) - %496 = fmul float %489, %495 - %497 = fmul float %490, %495 - %498 = fmul float %491, %495 - %499 = fmul float %28, %496 - %500 = fadd float %499, %193 - %501 = fmul float %29, %497 - %502 = fadd float %501, %194 - %503 = fmul float %30, %498 - %504 = fadd float %503, %195 - %505 = fmul float %500, %483 - %506 = fmul float %502, %483 - %507 = fmul float %504, %483 - %508 = fmul float %483, 5.000000e-01 - %509 = fadd float %508, 5.000000e-01 - %510 = fmul float %477, %509 - %511 = fadd float %510, %505 - %512 = fmul float %479, %509 - %513 = fadd float %512, %506 - %514 = fmul float %481, %509 - %515 = fadd float %514, %507 - %516 = fmul float %511, %365 - %517 = fmul float %513, %366 - %518 = fmul float %515, %367 - %519 = fmul float %422, 0x3FDB272440000000 - %520 = fmul float %424, 0xBFDB272440000000 - %521 = fadd float %520, %519 - %522 = fmul float %434, 0x3FE99999A0000000 - %523 = fadd float %521, %522 - %524 = fmul float %523, 5.000000e-01 - %525 = fadd float %524, 0x3FE3333340000000 - %526 = fmul float %525, %525 - %527 = fmul float %516, %526 - %528 = fmul float %517, %526 - %529 = fmul float %518, %526 - %530 = fsub float -0.000000e+00, %72 - %531 = fsub float -0.000000e+00, %73 - %532 = fsub float -0.000000e+00, %74 - %533 = fmul float %temp12.0, %530 - %534 = fmul float %temp13.0, %531 - %535 = fadd float %534, %533 - %536 = fmul float %temp14.0, %532 - %537 = fadd float %535, %536 - %538 = call float @llvm.AMDIL.clamp.(float %537, float 0.000000e+00, float 1.000000e+00) - %539 = fmul float %365, %538 - %540 = fmul float %366, %538 - %541 = fmul float %367, %538 - %542 = fmul float %539, %69 - %543 = fmul float %540, %70 - %544 = fmul float %541, %71 - %545 = fsub float -0.000000e+00, %164 - %546 = fadd float %97, %545 - %547 = fsub float -0.000000e+00, %165 - %548 = fadd float %98, %547 - %549 = fsub float -0.000000e+00, %166 - %550 = fadd float %99, %549 - %551 = fmul float %546, %546 - %552 = fmul float %548, %548 - %553 = fadd float %552, %551 - %554 = fmul float %550, %550 - %555 = fadd float %553, %554 - %556 = call float @llvm.amdgcn.rsq.f32(float %555) - %557 = fmul float %556, %555 - %558 = fsub float -0.000000e+00, %555 - %cmp1 = fcmp ogt float %558, 0.000000e+00 - %559 = select i1 %cmp1, float %557, float 0.000000e+00 - %560 = fsub float -0.000000e+00, %84 - %561 = fadd float %559, %560 - %562 = fsub float -0.000000e+00, %83 - %563 = fadd float %559, %562 - %564 = fsub float -0.000000e+00, %82 - %565 = fadd float %559, %564 - %566 = fsub float -0.000000e+00, %84 - %567 = fadd float %83, %566 - %568 = fsub float -0.000000e+00, %83 - %569 = fadd float %82, %568 - %570 = fsub float -0.000000e+00, %82 - %571 = fadd float %81, %570 - %572 = fdiv float 1.000000e+00, %567 - %573 = fdiv float 1.000000e+00, %569 - %574 = fdiv float 1.000000e+00, %571 - %575 = fmul float %561, %572 - %576 = fmul float %563, %573 - %577 = fmul float %565, %574 - %578 = fcmp olt float %559, %83 - %579 = sext i1 %578 to i32 - %580 = bitcast i32 %579 to float - %581 = bitcast float %580 to i32 - %582 = icmp ne i32 %581, 0 - br i1 %582, label %ENDIF200, label %ELSE202 + %temp14.0 = phi float [ %tmp465, %IF198 ], [ %tmp457, %IF189 ] + %temp13.0 = phi float [ %tmp464, %IF198 ], [ %tmp456, %IF189 ] + %temp12.0 = phi float [ %tmp463, %IF198 ], [ %tmp455, %IF189 ] + %tmp466 = bitcast float %tmp219 to i32 + %tmp467 = bitcast float %tmp220 to i32 + %tmp468 = insertelement <2 x i32> undef, i32 %tmp466, i32 0 + %tmp469 = insertelement <2 x i32> %tmp468, i32 %tmp467, i32 1 + %tmp470 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp469, <32 x i8> %tmp158, <16 x i8> %tmp160, i32 2) + %tmp471 = extractelement <4 x float> %tmp470, i32 0 + %tmp472 = extractelement <4 x float> %tmp470, i32 1 + %tmp473 = extractelement <4 x float> %tmp470, i32 2 + %tmp474 = extractelement <4 x float> %tmp470, i32 3 + %tmp475 = fmul float %tmp471, %tmp39 + %tmp476 = fadd float %tmp475, %tmp40 + %tmp477 = fmul float %tmp472, %tmp39 + %tmp478 = fadd float %tmp477, %tmp40 + %tmp479 = fmul float %tmp473, %tmp39 + %tmp480 = fadd float %tmp479, %tmp40 + %tmp481 = fmul float %tmp474, %tmp41 + %tmp482 = fadd float %tmp481, %tmp42 + %tmp483 = bitcast float %tmp171 to i32 + %tmp484 = bitcast float %tmp172 to i32 + %tmp485 = insertelement <2 x i32> undef, i32 %tmp483, i32 0 + %tmp486 = insertelement <2 x i32> %tmp485, i32 %tmp484, i32 1 + %tmp487 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %tmp486, <32 x i8> %tmp154, <16 x i8> %tmp156, i32 2) + %tmp488 = extractelement <4 x float> %tmp487, i32 0 + %tmp489 = extractelement <4 x float> %tmp487, i32 1 + %tmp490 = extractelement <4 x float> %tmp487, i32 2 + %tmp491 = extractelement <4 x float> %tmp487, i32 3 + %tmp492 = fmul float %tmp491, 3.200000e+01 + %tmp493 = fadd float %tmp492, -1.600000e+01 + %tmp494 = call float @llvm.AMDIL.exp.(float %tmp493) + %tmp495 = fmul float %tmp488, %tmp494 + %tmp496 = fmul float %tmp489, %tmp494 + %tmp497 = fmul float %tmp490, %tmp494 + %tmp498 = fmul float %tmp27, %tmp495 + %tmp499 = fadd float %tmp498, %tmp192 + %tmp500 = fmul float %tmp28, %tmp496 + %tmp501 = fadd float %tmp500, %tmp193 + %tmp502 = fmul float %tmp29, %tmp497 + %tmp503 = fadd float %tmp502, %tmp194 + %tmp504 = fmul float %tmp499, %tmp482 + %tmp505 = fmul float %tmp501, %tmp482 + %tmp506 = fmul float %tmp503, %tmp482 + %tmp507 = fmul float %tmp482, 5.000000e-01 + %tmp508 = fadd float %tmp507, 5.000000e-01 + %tmp509 = fmul float %tmp476, %tmp508 + %tmp510 = fadd float %tmp509, %tmp504 + %tmp511 = fmul float %tmp478, %tmp508 + %tmp512 = fadd float %tmp511, %tmp505 + %tmp513 = fmul float %tmp480, %tmp508 + %tmp514 = fadd float %tmp513, %tmp506 + %tmp515 = fmul float %tmp510, %tmp364 + %tmp516 = fmul float %tmp512, %tmp365 + %tmp517 = fmul float %tmp514, %tmp366 + %tmp518 = fmul float %tmp421, 0x3FDB272440000000 + %tmp519 = fmul float %tmp423, 0xBFDB272440000000 + %tmp520 = fadd float %tmp519, %tmp518 + %tmp521 = fmul float %tmp433, 0x3FE99999A0000000 + %tmp522 = fadd float %tmp520, %tmp521 + %tmp523 = fmul float %tmp522, 5.000000e-01 + %tmp524 = fadd float %tmp523, 0x3FE3333340000000 + %tmp525 = fmul float %tmp524, %tmp524 + %tmp526 = fmul float %tmp515, %tmp525 + %tmp527 = fmul float %tmp516, %tmp525 + %tmp528 = fmul float %tmp517, %tmp525 + %tmp529 = fsub float -0.000000e+00, %tmp71 + %tmp530 = fsub float -0.000000e+00, %tmp72 + %tmp531 = fsub float -0.000000e+00, %tmp73 + %tmp532 = fmul float %temp12.0, %tmp529 + %tmp533 = fmul float %temp13.0, %tmp530 + %tmp534 = fadd float %tmp533, %tmp532 + %tmp535 = fmul float %temp14.0, %tmp531 + %tmp536 = fadd float %tmp534, %tmp535 + %tmp537 = call float @llvm.AMDIL.clamp.(float %tmp536, float 0.000000e+00, float 1.000000e+00) + %tmp538 = fmul float %tmp364, %tmp537 + %tmp539 = fmul float %tmp365, %tmp537 + %tmp540 = fmul float %tmp366, %tmp537 + %tmp541 = fmul float %tmp538, %tmp68 + %tmp542 = fmul float %tmp539, %tmp69 + %tmp543 = fmul float %tmp540, %tmp70 + %tmp544 = fsub float -0.000000e+00, %tmp163 + %tmp545 = fadd float %tmp96, %tmp544 + %tmp546 = fsub float -0.000000e+00, %tmp164 + %tmp547 = fadd float %tmp97, %tmp546 + %tmp548 = fsub float -0.000000e+00, %tmp165 + %tmp549 = fadd float %tmp98, %tmp548 + %tmp550 = fmul float %tmp545, %tmp545 + %tmp551 = fmul float %tmp547, %tmp547 + %tmp552 = fadd float %tmp551, %tmp550 + %tmp553 = fmul float %tmp549, %tmp549 + %tmp554 = fadd float %tmp552, %tmp553 + %tmp555 = call float @llvm.amdgcn.rsq.f32(float %tmp554) + %tmp556 = fmul float %tmp555, %tmp554 + %tmp557 = fsub float -0.000000e+00, %tmp554 + %cmp1 = fcmp ogt float %tmp557, 0.000000e+00 + %tmp558 = select i1 %cmp1, float %tmp556, float 0.000000e+00 + %tmp559 = fsub float -0.000000e+00, %tmp83 + %tmp560 = fadd float %tmp558, %tmp559 + %tmp561 = fsub float -0.000000e+00, %tmp82 + %tmp562 = fadd float %tmp558, %tmp561 + %tmp563 = fsub float -0.000000e+00, %tmp81 + %tmp564 = fadd float %tmp558, %tmp563 + %tmp565 = fsub float -0.000000e+00, %tmp83 + %tmp566 = fadd float %tmp82, %tmp565 + %tmp567 = fsub float -0.000000e+00, %tmp82 + %tmp568 = fadd float %tmp81, %tmp567 + %tmp569 = fsub float -0.000000e+00, %tmp81 + %tmp570 = fadd float %tmp80, %tmp569 + %tmp571 = fdiv float 1.000000e+00, %tmp566 + %tmp572 = fdiv float 1.000000e+00, %tmp568 + %tmp573 = fdiv float 1.000000e+00, %tmp570 + %tmp574 = fmul float %tmp560, %tmp571 + %tmp575 = fmul float %tmp562, %tmp572 + %tmp576 = fmul float %tmp564, %tmp573 + %tmp577 = fcmp olt float %tmp558, %tmp82 + %tmp578 = sext i1 %tmp577 to i32 + %tmp579 = bitcast i32 %tmp578 to float + %tmp580 = bitcast float %tmp579 to i32 + %tmp581 = icmp ne i32 %tmp580, 0 + br i1 %tmp581, label %ENDIF200, label %ELSE202 ELSE202: ; preds = %ENDIF197 - %583 = fcmp olt float %559, %82 - %584 = sext i1 %583 to i32 - %585 = bitcast i32 %584 to float - %586 = bitcast float %585 to i32 - %587 = icmp ne i32 %586, 0 - br i1 %587, label %ENDIF200, label %ELSE205 + %tmp582 = fcmp olt float %tmp558, %tmp81 + %tmp583 = sext i1 %tmp582 to i32 + %tmp584 = bitcast i32 %tmp583 to float + %tmp585 = bitcast float %tmp584 to i32 + %tmp586 = icmp ne i32 %tmp585, 0 + br i1 %tmp586, label %ENDIF200, label %ELSE205 ENDIF200: ; preds = %ELSE205, %ELSE202, %ENDIF197 - %temp80.0 = phi float [ %575, %ENDIF197 ], [ %.226, %ELSE205 ], [ %576, %ELSE202 ] - %temp88.0 = phi float [ %122, %ENDIF197 ], [ %.227, %ELSE205 ], [ %120, %ELSE202 ] - %temp89.0 = phi float [ %123, %ENDIF197 ], [ %.228, %ELSE205 ], [ %121, %ELSE202 ] - %temp90.0 = phi float [ %120, %ENDIF197 ], [ %116, %ELSE205 ], [ %118, %ELSE202 ] - %temp91.0 = phi float [ %121, %ENDIF197 ], [ %117, %ELSE205 ], [ %119, %ELSE202 ] - %588 = fcmp olt float %559, %83 - %589 = sext i1 %588 to i32 - %590 = bitcast i32 %589 to float - %591 = bitcast float %590 to i32 - %592 = icmp ne i32 %591, 0 - br i1 %592, label %ENDIF209, label %ELSE211 + %temp80.0 = phi float [ %tmp574, %ENDIF197 ], [ %.226, %ELSE205 ], [ %tmp575, %ELSE202 ] + %temp88.0 = phi float [ %tmp121, %ENDIF197 ], [ %.227, %ELSE205 ], [ %tmp119, %ELSE202 ] + %temp89.0 = phi float [ %tmp122, %ENDIF197 ], [ %.228, %ELSE205 ], [ %tmp120, %ELSE202 ] + %temp90.0 = phi float [ %tmp119, %ENDIF197 ], [ %tmp115, %ELSE205 ], [ %tmp117, %ELSE202 ] + %temp91.0 = phi float [ %tmp120, %ENDIF197 ], [ %tmp116, %ELSE205 ], [ %tmp118, %ELSE202 ] + %tmp587 = fcmp olt float %tmp558, %tmp82 + %tmp588 = sext i1 %tmp587 to i32 + %tmp589 = bitcast i32 %tmp588 to float + %tmp590 = bitcast float %tmp589 to i32 + %tmp591 = icmp ne i32 %tmp590, 0 + br i1 %tmp591, label %ENDIF209, label %ELSE211 ELSE205: ; preds = %ELSE202 - %593 = fcmp olt float %559, %81 - %594 = sext i1 %593 to i32 - %595 = bitcast i32 %594 to float - %596 = bitcast float %595 to i32 - %597 = icmp ne i32 %596, 0 - %.226 = select i1 %597, float %577, float 1.000000e+00 - %.227 = select i1 %597, float %118, float %116 - %.228 = select i1 %597, float %119, float %117 + %tmp592 = fcmp olt float %tmp558, %tmp80 + %tmp593 = sext i1 %tmp592 to i32 + %tmp594 = bitcast i32 %tmp593 to float + %tmp595 = bitcast float %tmp594 to i32 + %tmp596 = icmp ne i32 %tmp595, 0 + %.226 = select i1 %tmp596, float %tmp576, float 1.000000e+00 + %.227 = select i1 %tmp596, float %tmp117, float %tmp115 + %.228 = select i1 %tmp596, float %tmp118, float %tmp116 br label %ENDIF200 ELSE211: ; preds = %ENDIF200 - %598 = fcmp olt float %559, %82 - %599 = sext i1 %598 to i32 - %600 = bitcast i32 %599 to float - %601 = bitcast float %600 to i32 - %602 = icmp ne i32 %601, 0 - br i1 %602, label %ENDIF209, label %ELSE214 + %tmp597 = fcmp olt float %tmp558, %tmp81 + %tmp598 = sext i1 %tmp597 to i32 + %tmp599 = bitcast i32 %tmp598 to float + %tmp600 = bitcast float %tmp599 to i32 + %tmp601 = icmp ne i32 %tmp600, 0 + br i1 %tmp601, label %ENDIF209, label %ELSE214 ENDIF209: ; preds = %ELSE214, %ELSE211, %ENDIF200 - %temp52.0 = phi float [ %108, %ENDIF200 ], [ %100, %ELSE214 ], [ %104, %ELSE211 ] - %temp53.0 = phi float [ %109, %ENDIF200 ], [ %101, %ELSE214 ], [ %105, %ELSE211 ] - %temp54.0 = phi float [ %110, %ENDIF200 ], [ %102, %ELSE214 ], [ %106, %ELSE211 ] - %temp55.0 = phi float [ %111, %ENDIF200 ], [ %103, %ELSE214 ], [ %107, %ELSE211 ] - %temp68.0 = phi float [ %112, %ENDIF200 ], [ %.230, %ELSE214 ], [ %108, %ELSE211 ] - %temp69.0 = phi float [ %113, %ENDIF200 ], [ %.231, %ELSE214 ], [ %109, %ELSE211 ] - %temp70.0 = phi float [ %114, %ENDIF200 ], [ %.232, %ELSE214 ], [ %110, %ELSE211 ] - %temp71.0 = phi float [ %115, %ENDIF200 ], [ %.233, %ELSE214 ], [ %111, %ELSE211 ] - %603 = fmul float %164, %85 - %604 = fmul float %165, %86 - %605 = fadd float %603, %604 - %606 = fmul float %166, %87 - %607 = fadd float %605, %606 - %608 = fmul float %167, %88 - %609 = fadd float %607, %608 - %610 = fmul float %164, %89 - %611 = fmul float %165, %90 - %612 = fadd float %610, %611 - %613 = fmul float %166, %91 - %614 = fadd float %612, %613 - %615 = fmul float %167, %92 - %616 = fadd float %614, %615 - %617 = fmul float %164, %93 - %618 = fmul float %165, %94 - %619 = fadd float %617, %618 - %620 = fmul float %166, %95 - %621 = fadd float %619, %620 - %622 = fmul float %167, %96 - %623 = fadd float %621, %622 - %624 = fsub float -0.000000e+00, %78 - %625 = fadd float 1.000000e+00, %624 - %626 = call float @fabs(float %609) - %627 = call float @fabs(float %616) - %628 = fcmp oge float %625, %626 - %629 = sext i1 %628 to i32 - %630 = bitcast i32 %629 to float - %631 = bitcast float %630 to i32 - %632 = and i32 %631, 1065353216 - %633 = bitcast i32 %632 to float - %634 = fcmp oge float %625, %627 - %635 = sext i1 %634 to i32 - %636 = bitcast i32 %635 to float - %637 = bitcast float %636 to i32 - %638 = and i32 %637, 1065353216 - %639 = bitcast i32 %638 to float - %640 = fmul float %633, %639 - %641 = fmul float %623, %640 - %642 = fmul float %609, %temp68.0 - %643 = fadd float %642, %temp70.0 - %644 = fmul float %616, %temp69.0 - %645 = fadd float %644, %temp71.0 - %646 = fmul float %609, %temp52.0 - %647 = fadd float %646, %temp54.0 - %648 = fmul float %616, %temp53.0 - %649 = fadd float %648, %temp55.0 - %650 = fadd float %temp80.0, -1.000000e+00 - %651 = fmul float %650, %77 - %652 = fadd float %651, 1.000000e+00 - %653 = call float @llvm.AMDIL.clamp.(float %652, float 0.000000e+00, float 1.000000e+00) - %654 = bitcast float %643 to i32 - %655 = bitcast float %645 to i32 - %656 = bitcast float 0.000000e+00 to i32 - %657 = insertelement <4 x i32> undef, i32 %654, i32 0 - %658 = insertelement <4 x i32> %657, i32 %655, i32 1 - %659 = insertelement <4 x i32> %658, i32 %656, i32 2 - %660 = insertelement <4 x i32> %659, i32 undef, i32 3 - %661 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %660, <32 x i8> %127, <16 x i8> %129, i32 2) - %662 = extractelement <4 x float> %661, i32 0 - %663 = extractelement <4 x float> %661, i32 1 - %664 = bitcast float %647 to i32 - %665 = bitcast float %649 to i32 - %666 = bitcast float 0.000000e+00 to i32 - %667 = insertelement <4 x i32> undef, i32 %664, i32 0 - %668 = insertelement <4 x i32> %667, i32 %665, i32 1 - %669 = insertelement <4 x i32> %668, i32 %666, i32 2 - %670 = insertelement <4 x i32> %669, i32 undef, i32 3 - %671 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %670, <32 x i8> %127, <16 x i8> %129, i32 2) - %672 = extractelement <4 x float> %671, i32 0 - %673 = extractelement <4 x float> %671, i32 1 - %674 = fsub float -0.000000e+00, %663 - %675 = fadd float 1.000000e+00, %674 - %676 = fsub float -0.000000e+00, %673 - %677 = fadd float 1.000000e+00, %676 - %678 = fmul float %675, 2.500000e-01 - %679 = fmul float %677, 2.500000e-01 - %680 = fsub float -0.000000e+00, %678 - %681 = fadd float %662, %680 - %682 = fsub float -0.000000e+00, %679 - %683 = fadd float %672, %682 - %684 = fmul float %641, %temp88.0 - %685 = fadd float %684, %temp89.0 - %686 = fmul float %641, %temp90.0 - %687 = fadd float %686, %temp91.0 - %688 = call float @llvm.AMDIL.clamp.(float %685, float 0.000000e+00, float 1.000000e+00) - %689 = call float @llvm.AMDIL.clamp.(float %687, float 0.000000e+00, float 1.000000e+00) - %690 = fsub float -0.000000e+00, %688 - %691 = fadd float %662, %690 - %692 = fsub float -0.000000e+00, %689 - %693 = fadd float %672, %692 - %694 = fmul float %662, %662 - %695 = fmul float %672, %672 - %696 = fsub float -0.000000e+00, %694 - %697 = fadd float %681, %696 - %698 = fsub float -0.000000e+00, %695 - %699 = fadd float %683, %698 - %700 = fcmp uge float %697, %75 - %701 = select i1 %700, float %697, float %75 - %702 = fcmp uge float %699, %75 - %703 = select i1 %702, float %699, float %75 - %704 = fmul float %691, %691 - %705 = fadd float %704, %701 - %706 = fmul float %693, %693 - %707 = fadd float %706, %703 - %708 = fdiv float 1.000000e+00, %705 - %709 = fdiv float 1.000000e+00, %707 - %710 = fmul float %701, %708 - %711 = fmul float %703, %709 - %712 = fcmp oge float %691, 0.000000e+00 - %713 = sext i1 %712 to i32 - %714 = bitcast i32 %713 to float - %715 = bitcast float %714 to i32 - %716 = icmp ne i32 %715, 0 - %.229 = select i1 %716, float 1.000000e+00, float %710 - %717 = fcmp oge float %693, 0.000000e+00 - %718 = sext i1 %717 to i32 - %719 = bitcast i32 %718 to float - %720 = bitcast float %719 to i32 - %721 = icmp ne i32 %720, 0 - %temp28.0 = select i1 %721, float 1.000000e+00, float %711 - %one.sub.a.i25 = fsub float 1.000000e+00, %653 + %temp52.0 = phi float [ %tmp107, %ENDIF200 ], [ %tmp99, %ELSE214 ], [ %tmp103, %ELSE211 ] + %temp53.0 = phi float [ %tmp108, %ENDIF200 ], [ %tmp100, %ELSE214 ], [ %tmp104, %ELSE211 ] + %temp54.0 = phi float [ %tmp109, %ENDIF200 ], [ %tmp101, %ELSE214 ], [ %tmp105, %ELSE211 ] + %temp55.0 = phi float [ %tmp110, %ENDIF200 ], [ %tmp102, %ELSE214 ], [ %tmp106, %ELSE211 ] + %temp68.0 = phi float [ %tmp111, %ENDIF200 ], [ %.230, %ELSE214 ], [ %tmp107, %ELSE211 ] + %temp69.0 = phi float [ %tmp112, %ENDIF200 ], [ %.231, %ELSE214 ], [ %tmp108, %ELSE211 ] + %temp70.0 = phi float [ %tmp113, %ENDIF200 ], [ %.232, %ELSE214 ], [ %tmp109, %ELSE211 ] + %temp71.0 = phi float [ %tmp114, %ENDIF200 ], [ %.233, %ELSE214 ], [ %tmp110, %ELSE211 ] + %tmp602 = fmul float %tmp163, %tmp84 + %tmp603 = fmul float %tmp164, %tmp85 + %tmp604 = fadd float %tmp602, %tmp603 + %tmp605 = fmul float %tmp165, %tmp86 + %tmp606 = fadd float %tmp604, %tmp605 + %tmp607 = fmul float %tmp166, %tmp87 + %tmp608 = fadd float %tmp606, %tmp607 + %tmp609 = fmul float %tmp163, %tmp88 + %tmp610 = fmul float %tmp164, %tmp89 + %tmp611 = fadd float %tmp609, %tmp610 + %tmp612 = fmul float %tmp165, %tmp90 + %tmp613 = fadd float %tmp611, %tmp612 + %tmp614 = fmul float %tmp166, %tmp91 + %tmp615 = fadd float %tmp613, %tmp614 + %tmp616 = fmul float %tmp163, %tmp92 + %tmp617 = fmul float %tmp164, %tmp93 + %tmp618 = fadd float %tmp616, %tmp617 + %tmp619 = fmul float %tmp165, %tmp94 + %tmp620 = fadd float %tmp618, %tmp619 + %tmp621 = fmul float %tmp166, %tmp95 + %tmp622 = fadd float %tmp620, %tmp621 + %tmp623 = fsub float -0.000000e+00, %tmp77 + %tmp624 = fadd float 1.000000e+00, %tmp623 + %tmp625 = call float @fabs(float %tmp608) + %tmp626 = call float @fabs(float %tmp615) + %tmp627 = fcmp oge float %tmp624, %tmp625 + %tmp628 = sext i1 %tmp627 to i32 + %tmp629 = bitcast i32 %tmp628 to float + %tmp630 = bitcast float %tmp629 to i32 + %tmp631 = and i32 %tmp630, 1065353216 + %tmp632 = bitcast i32 %tmp631 to float + %tmp633 = fcmp oge float %tmp624, %tmp626 + %tmp634 = sext i1 %tmp633 to i32 + %tmp635 = bitcast i32 %tmp634 to float + %tmp636 = bitcast float %tmp635 to i32 + %tmp637 = and i32 %tmp636, 1065353216 + %tmp638 = bitcast i32 %tmp637 to float + %tmp639 = fmul float %tmp632, %tmp638 + %tmp640 = fmul float %tmp622, %tmp639 + %tmp641 = fmul float %tmp608, %temp68.0 + %tmp642 = fadd float %tmp641, %temp70.0 + %tmp643 = fmul float %tmp615, %temp69.0 + %tmp644 = fadd float %tmp643, %temp71.0 + %tmp645 = fmul float %tmp608, %temp52.0 + %tmp646 = fadd float %tmp645, %temp54.0 + %tmp647 = fmul float %tmp615, %temp53.0 + %tmp648 = fadd float %tmp647, %temp55.0 + %tmp649 = fadd float %temp80.0, -1.000000e+00 + %tmp650 = fmul float %tmp649, %tmp76 + %tmp651 = fadd float %tmp650, 1.000000e+00 + %tmp652 = call float @llvm.AMDIL.clamp.(float %tmp651, float 0.000000e+00, float 1.000000e+00) + %tmp653 = bitcast float %tmp642 to i32 + %tmp654 = bitcast float %tmp644 to i32 + %tmp655 = bitcast float 0.000000e+00 to i32 + %tmp656 = insertelement <4 x i32> undef, i32 %tmp653, i32 0 + %tmp657 = insertelement <4 x i32> %tmp656, i32 %tmp654, i32 1 + %tmp658 = insertelement <4 x i32> %tmp657, i32 %tmp655, i32 2 + %tmp659 = insertelement <4 x i32> %tmp658, i32 undef, i32 3 + %tmp660 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %tmp659, <32 x i8> %tmp126, <16 x i8> %tmp128, i32 2) + %tmp661 = extractelement <4 x float> %tmp660, i32 0 + %tmp662 = extractelement <4 x float> %tmp660, i32 1 + %tmp663 = bitcast float %tmp646 to i32 + %tmp664 = bitcast float %tmp648 to i32 + %tmp665 = bitcast float 0.000000e+00 to i32 + %tmp666 = insertelement <4 x i32> undef, i32 %tmp663, i32 0 + %tmp667 = insertelement <4 x i32> %tmp666, i32 %tmp664, i32 1 + %tmp668 = insertelement <4 x i32> %tmp667, i32 %tmp665, i32 2 + %tmp669 = insertelement <4 x i32> %tmp668, i32 undef, i32 3 + %tmp670 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %tmp669, <32 x i8> %tmp126, <16 x i8> %tmp128, i32 2) + %tmp671 = extractelement <4 x float> %tmp670, i32 0 + %tmp672 = extractelement <4 x float> %tmp670, i32 1 + %tmp673 = fsub float -0.000000e+00, %tmp662 + %tmp674 = fadd float 1.000000e+00, %tmp673 + %tmp675 = fsub float -0.000000e+00, %tmp672 + %tmp676 = fadd float 1.000000e+00, %tmp675 + %tmp677 = fmul float %tmp674, 2.500000e-01 + %tmp678 = fmul float %tmp676, 2.500000e-01 + %tmp679 = fsub float -0.000000e+00, %tmp677 + %tmp680 = fadd float %tmp661, %tmp679 + %tmp681 = fsub float -0.000000e+00, %tmp678 + %tmp682 = fadd float %tmp671, %tmp681 + %tmp683 = fmul float %tmp640, %temp88.0 + %tmp684 = fadd float %tmp683, %temp89.0 + %tmp685 = fmul float %tmp640, %temp90.0 + %tmp686 = fadd float %tmp685, %temp91.0 + %tmp687 = call float @llvm.AMDIL.clamp.(float %tmp684, float 0.000000e+00, float 1.000000e+00) + %tmp688 = call float @llvm.AMDIL.clamp.(float %tmp686, float 0.000000e+00, float 1.000000e+00) + %tmp689 = fsub float -0.000000e+00, %tmp687 + %tmp690 = fadd float %tmp661, %tmp689 + %tmp691 = fsub float -0.000000e+00, %tmp688 + %tmp692 = fadd float %tmp671, %tmp691 + %tmp693 = fmul float %tmp661, %tmp661 + %tmp694 = fmul float %tmp671, %tmp671 + %tmp695 = fsub float -0.000000e+00, %tmp693 + %tmp696 = fadd float %tmp680, %tmp695 + %tmp697 = fsub float -0.000000e+00, %tmp694 + %tmp698 = fadd float %tmp682, %tmp697 + %tmp699 = fcmp uge float %tmp696, %tmp74 + %tmp700 = select i1 %tmp699, float %tmp696, float %tmp74 + %tmp701 = fcmp uge float %tmp698, %tmp74 + %tmp702 = select i1 %tmp701, float %tmp698, float %tmp74 + %tmp703 = fmul float %tmp690, %tmp690 + %tmp704 = fadd float %tmp703, %tmp700 + %tmp705 = fmul float %tmp692, %tmp692 + %tmp706 = fadd float %tmp705, %tmp702 + %tmp707 = fdiv float 1.000000e+00, %tmp704 + %tmp708 = fdiv float 1.000000e+00, %tmp706 + %tmp709 = fmul float %tmp700, %tmp707 + %tmp710 = fmul float %tmp702, %tmp708 + %tmp711 = fcmp oge float %tmp690, 0.000000e+00 + %tmp712 = sext i1 %tmp711 to i32 + %tmp713 = bitcast i32 %tmp712 to float + %tmp714 = bitcast float %tmp713 to i32 + %tmp715 = icmp ne i32 %tmp714, 0 + %.229 = select i1 %tmp715, float 1.000000e+00, float %tmp709 + %tmp716 = fcmp oge float %tmp692, 0.000000e+00 + %tmp717 = sext i1 %tmp716 to i32 + %tmp718 = bitcast i32 %tmp717 to float + %tmp719 = bitcast float %tmp718 to i32 + %tmp720 = icmp ne i32 %tmp719, 0 + %temp28.0 = select i1 %tmp720, float 1.000000e+00, float %tmp710 + %one.sub.a.i25 = fsub float 1.000000e+00, %tmp652 %one.sub.ac.i26 = fmul float %one.sub.a.i25, %.229 %mul.i27 = fmul float %temp28.0, %.229 %result.i28 = fadd float %mul.i27, %one.sub.ac.i26 - %722 = call float @llvm.pow.f32(float %result.i28, float %76) - %723 = fmul float %722, %79 - %724 = fadd float %723, %80 - %725 = call float @llvm.AMDIL.clamp.(float %724, float 0.000000e+00, float 1.000000e+00) - %726 = fmul float %725, %725 - %727 = fmul float 2.000000e+00, %725 - %728 = fsub float -0.000000e+00, %727 - %729 = fadd float 3.000000e+00, %728 - %730 = fmul float %726, %729 - %731 = fmul float %542, %730 - %732 = fmul float %543, %730 - %733 = fmul float %544, %730 - %734 = fmul float %731, %509 - %735 = fadd float %734, %527 - %736 = fmul float %732, %509 - %737 = fadd float %736, %528 - %738 = fmul float %733, %509 - %739 = fadd float %738, %529 - %one.sub.a.i23 = fsub float 1.000000e+00, %230 - %result.i24 = fadd float %284, %one.sub.a.i23 - %one.sub.a.i21 = fsub float 1.000000e+00, %37 - %result.i22 = fadd float %295, %one.sub.a.i21 - %one.sub.a.i19 = fsub float 1.000000e+00, %37 - %result.i20 = fadd float %296, %one.sub.a.i19 - %one.sub.a.i17 = fsub float 1.000000e+00, %37 - %result.i18 = fadd float %297, %one.sub.a.i17 - %one.sub.a.i15 = fsub float 1.000000e+00, %38 + %tmp721 = call float @llvm.pow.f32(float %result.i28, float %tmp75) + %tmp722 = fmul float %tmp721, %tmp78 + %tmp723 = fadd float %tmp722, %tmp79 + %tmp724 = call float @llvm.AMDIL.clamp.(float %tmp723, float 0.000000e+00, float 1.000000e+00) + %tmp725 = fmul float %tmp724, %tmp724 + %tmp726 = fmul float 2.000000e+00, %tmp724 + %tmp727 = fsub float -0.000000e+00, %tmp726 + %tmp728 = fadd float 3.000000e+00, %tmp727 + %tmp729 = fmul float %tmp725, %tmp728 + %tmp730 = fmul float %tmp541, %tmp729 + %tmp731 = fmul float %tmp542, %tmp729 + %tmp732 = fmul float %tmp543, %tmp729 + %tmp733 = fmul float %tmp730, %tmp508 + %tmp734 = fadd float %tmp733, %tmp526 + %tmp735 = fmul float %tmp731, %tmp508 + %tmp736 = fadd float %tmp735, %tmp527 + %tmp737 = fmul float %tmp732, %tmp508 + %tmp738 = fadd float %tmp737, %tmp528 + %one.sub.a.i23 = fsub float 1.000000e+00, %tmp229 + %result.i24 = fadd float %tmp283, %one.sub.a.i23 + %one.sub.a.i21 = fsub float 1.000000e+00, %tmp36 + %result.i22 = fadd float %tmp294, %one.sub.a.i21 + %one.sub.a.i19 = fsub float 1.000000e+00, %tmp36 + %result.i20 = fadd float %tmp295, %one.sub.a.i19 + %one.sub.a.i17 = fsub float 1.000000e+00, %tmp36 + %result.i18 = fadd float %tmp296, %one.sub.a.i17 + %one.sub.a.i15 = fsub float 1.000000e+00, %tmp37 %result.i16 = fadd float %result.i24, %one.sub.a.i15 - %740 = fmul float %result.i22, %result.i16 - %741 = fmul float %result.i20, %result.i16 - %742 = fmul float %result.i18, %result.i16 - %743 = fmul float %735, %740 - %744 = fmul float %737, %741 - %745 = fmul float %739, %742 - %746 = fmul float %temp12.0, %216 - %747 = fmul float %temp13.0, %217 - %748 = fadd float %747, %746 - %749 = fmul float %temp14.0, %218 - %750 = fadd float %748, %749 - %751 = call float @fabs(float %750) - %752 = fmul float %751, %751 - %753 = fmul float %752, %50 - %754 = fadd float %753, %51 - %755 = call float @llvm.AMDIL.clamp.(float %754, float 0.000000e+00, float 1.000000e+00) - %756 = fsub float -0.000000e+00, %755 - %757 = fadd float 1.000000e+00, %756 - %758 = fmul float %33, %757 - %759 = fmul float %33, %757 - %760 = fmul float %33, %757 - %761 = fmul float %34, %757 - %one.sub.a.i11 = fsub float 1.000000e+00, %758 - %one.sub.ac.i12 = fmul float %one.sub.a.i11, %743 - %mul.i13 = fmul float %31, %743 + %tmp739 = fmul float %result.i22, %result.i16 + %tmp740 = fmul float %result.i20, %result.i16 + %tmp741 = fmul float %result.i18, %result.i16 + %tmp742 = fmul float %tmp734, %tmp739 + %tmp743 = fmul float %tmp736, %tmp740 + %tmp744 = fmul float %tmp738, %tmp741 + %tmp745 = fmul float %temp12.0, %tmp215 + %tmp746 = fmul float %temp13.0, %tmp216 + %tmp747 = fadd float %tmp746, %tmp745 + %tmp748 = fmul float %temp14.0, %tmp217 + %tmp749 = fadd float %tmp747, %tmp748 + %tmp750 = call float @fabs(float %tmp749) + %tmp751 = fmul float %tmp750, %tmp750 + %tmp752 = fmul float %tmp751, %tmp49 + %tmp753 = fadd float %tmp752, %tmp50 + %tmp754 = call float @llvm.AMDIL.clamp.(float %tmp753, float 0.000000e+00, float 1.000000e+00) + %tmp755 = fsub float -0.000000e+00, %tmp754 + %tmp756 = fadd float 1.000000e+00, %tmp755 + %tmp757 = fmul float %tmp32, %tmp756 + %tmp758 = fmul float %tmp32, %tmp756 + %tmp759 = fmul float %tmp32, %tmp756 + %tmp760 = fmul float %tmp33, %tmp756 + %one.sub.a.i11 = fsub float 1.000000e+00, %tmp757 + %one.sub.ac.i12 = fmul float %one.sub.a.i11, %tmp742 + %mul.i13 = fmul float %tmp30, %tmp742 %result.i14 = fadd float %mul.i13, %one.sub.ac.i12 - %one.sub.a.i7 = fsub float 1.000000e+00, %759 - %one.sub.ac.i8 = fmul float %one.sub.a.i7, %744 - %mul.i9 = fmul float %31, %744 + %one.sub.a.i7 = fsub float 1.000000e+00, %tmp758 + %one.sub.ac.i8 = fmul float %one.sub.a.i7, %tmp743 + %mul.i9 = fmul float %tmp30, %tmp743 %result.i10 = fadd float %mul.i9, %one.sub.ac.i8 - %one.sub.a.i3 = fsub float 1.000000e+00, %760 - %one.sub.ac.i4 = fmul float %one.sub.a.i3, %745 - %mul.i5 = fmul float %31, %745 + %one.sub.a.i3 = fsub float 1.000000e+00, %tmp759 + %one.sub.ac.i4 = fmul float %one.sub.a.i3, %tmp744 + %mul.i5 = fmul float %tmp30, %tmp744 %result.i6 = fadd float %mul.i5, %one.sub.ac.i4 - %one.sub.a.i1 = fsub float 1.000000e+00, %761 - %one.sub.ac.i = fmul float %one.sub.a.i1, %368 - %mul.i = fmul float %32, %368 + %one.sub.a.i1 = fsub float 1.000000e+00, %tmp760 + %one.sub.ac.i = fmul float %one.sub.a.i1, %tmp367 + %mul.i = fmul float %tmp31, %tmp367 %result.i2 = fadd float %mul.i, %one.sub.ac.i - %762 = fcmp uge float %result.i14, 0x3E6FFFFE60000000 - %763 = select i1 %762, float %result.i14, float 0x3E6FFFFE60000000 - %764 = fcmp uge float %result.i10, 0x3E6FFFFE60000000 - %765 = select i1 %764, float %result.i10, float 0x3E6FFFFE60000000 - %766 = fcmp uge float %result.i6, 0x3E6FFFFE60000000 - %767 = select i1 %766, float %result.i6, float 0x3E6FFFFE60000000 - %768 = fcmp uge float %763, 6.550400e+04 - %769 = select i1 %768, float 6.550400e+04, float %763 - %770 = fcmp uge float %765, 6.550400e+04 - %771 = select i1 %770, float 6.550400e+04, float %765 - %772 = fcmp uge float %767, 6.550400e+04 - %773 = select i1 %772, float 6.550400e+04, float %767 - %774 = fmul float %result.i2, %52 - %775 = fadd float %774, %53 - %776 = call float @llvm.AMDIL.clamp.(float %775, float 0.000000e+00, float 1.000000e+00) - %777 = call i32 @llvm.SI.packf16(float %769, float %771) - %778 = bitcast i32 %777 to float - %779 = call i32 @llvm.SI.packf16(float %773, float %776) - %780 = bitcast i32 %779 to float - call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %778, float %780, float %778, float %780) + %tmp761 = fcmp uge float %result.i14, 0x3E6FFFFE60000000 + %tmp762 = select i1 %tmp761, float %result.i14, float 0x3E6FFFFE60000000 + %tmp763 = fcmp uge float %result.i10, 0x3E6FFFFE60000000 + %tmp764 = select i1 %tmp763, float %result.i10, float 0x3E6FFFFE60000000 + %tmp765 = fcmp uge float %result.i6, 0x3E6FFFFE60000000 + %tmp766 = select i1 %tmp765, float %result.i6, float 0x3E6FFFFE60000000 + %tmp767 = fcmp uge float %tmp762, 6.550400e+04 + %tmp768 = select i1 %tmp767, float 6.550400e+04, float %tmp762 + %tmp769 = fcmp uge float %tmp764, 6.550400e+04 + %tmp770 = select i1 %tmp769, float 6.550400e+04, float %tmp764 + %tmp771 = fcmp uge float %tmp766, 6.550400e+04 + %tmp772 = select i1 %tmp771, float 6.550400e+04, float %tmp766 + %tmp773 = fmul float %result.i2, %tmp51 + %tmp774 = fadd float %tmp773, %tmp52 + %tmp775 = call float @llvm.AMDIL.clamp.(float %tmp774, float 0.000000e+00, float 1.000000e+00) + %tmp776 = call i32 @llvm.SI.packf16(float %tmp768, float %tmp770) + %tmp777 = bitcast i32 %tmp776 to float + %tmp778 = call i32 @llvm.SI.packf16(float %tmp772, float %tmp775) + %tmp779 = bitcast i32 %tmp778 to float + call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp777, float %tmp779, float %tmp777, float %tmp779) ret void ELSE214: ; preds = %ELSE211 - %781 = fcmp olt float %559, %81 - %782 = sext i1 %781 to i32 - %783 = bitcast i32 %782 to float - %784 = bitcast float %783 to i32 - %785 = icmp ne i32 %784, 0 - %.230 = select i1 %785, float %104, float %100 - %.231 = select i1 %785, float %105, float %101 - %.232 = select i1 %785, float %106, float %102 - %.233 = select i1 %785, float %107, float %103 + %tmp780 = fcmp olt float %tmp558, %tmp80 + %tmp781 = sext i1 %tmp780 to i32 + %tmp782 = bitcast i32 %tmp781 to float + %tmp783 = bitcast float %tmp782 to i32 + %tmp784 = icmp ne i32 %tmp783, 0 + %.230 = select i1 %tmp784, float %tmp103, float %tmp99 + %.231 = select i1 %tmp784, float %tmp104, float %tmp100 + %.232 = select i1 %tmp784, float %tmp105, float %tmp101 + %.233 = select i1 %tmp784, float %tmp106, float %tmp102 br label %ENDIF209 } ; Function Attrs: readnone -declare float @llvm.AMDIL.clamp.(float, float, float) #3 +declare float @llvm.AMDIL.clamp.(float, float, float) #1 ; Function Attrs: nounwind readnone declare <4 x float> @llvm.SI.sample.v2i32(<2 x i32>, <32 x i8>, <16 x i8>, i32) #2 @@ -1554,7 +1555,7 @@ declare <4 x float> @llvm.SI.samplel.v4i32(<4 x i32>, <32 x i8>, <16 x i8>, i32) #2 ; Function Attrs: readnone -declare float @llvm.AMDIL.exp.(float) #3 +declare float @llvm.AMDIL.exp.(float) #1 ; Function Attrs: nounwind readnone declare float @llvm.SI.load.const(<16 x i8>, i32) #2 @@ -1563,10 +1564,10 @@ declare float @llvm.SI.fs.interp(i32, i32, i32, <2 x i32>) #2 ; Function Attrs: readnone -declare i32 @llvm.SI.tid() #3 +declare i32 @llvm.SI.tid() #1 ; Function Attrs: nounwind readonly -declare float @ceil(float) #4 +declare float @ceil(float) #3 ; Function Attrs: nounwind readnone declare float @llvm.amdgcn.rsq.f32(float) #2 @@ -1575,10 +1576,10 @@ declare <4 x float> @llvm.SI.sampled.v8i32(<8 x i32>, <32 x i8>, <16 x i8>, i32) #2 ; Function Attrs: readnone -declare <4 x float> @llvm.AMDGPU.cube(<4 x float>) #3 +declare <4 x float> @llvm.AMDGPU.cube(<4 x float>) #1 ; Function Attrs: readnone -declare float @fabs(float) #3 +declare float @fabs(float) #1 ; Function Attrs: nounwind readnone declare <4 x float> @llvm.SI.sample.v4i32(<4 x i32>, <32 x i8>, <16 x i8>, i32) #2 @@ -1591,13 +1592,10 @@ declare void @llvm.SI.export(i32, i32, i32, i32, i32, float, float, float, float) - - -attributes #0 = { alwaysinline nounwind readnone } -attributes #1 = { "ShaderType"="0" } +attributes #0 = { "ShaderType"="0" } +attributes #1 = { readnone } attributes #2 = { nounwind readnone } -attributes #3 = { readnone } -attributes #4 = { nounwind readonly } +attributes #3 = { nounwind readonly } !0 = !{!1, !1, i64 0, i32 1} !1 = !{!"const", null}