Index: lib/IR/AsmWriter.cpp =================================================================== --- lib/IR/AsmWriter.cpp +++ lib/IR/AsmWriter.cpp @@ -1095,20 +1095,21 @@ } if (const ConstantFP *CFP = dyn_cast(CV)) { - if (&CFP->getValueAPF().getSemantics() == &APFloat::IEEEsingle || - &CFP->getValueAPF().getSemantics() == &APFloat::IEEEdouble) { + APFloat APF = CFP->getValueAPF(); + if (&APF.getSemantics() == &APFloat::IEEEsingle || + &APF.getSemantics() == &APFloat::IEEEdouble) { // We would like to output the FP constant value in exponential notation, // but we cannot do this if doing so will lose precision. Check here to // make sure that we only output it in exponential format if we can parse // the value back and get the same value. // bool ignored; - bool isDouble = &CFP->getValueAPF().getSemantics()==&APFloat::IEEEdouble; - bool isInf = CFP->getValueAPF().isInfinity(); - bool isNaN = CFP->getValueAPF().isNaN(); + bool isDouble = &APF.getSemantics()==&APFloat::IEEEdouble; + bool isInf = APF.isInfinity(); + bool isNaN = APF.isNaN(); if (!isInf && !isNaN) { - double Val = isDouble ? CFP->getValueAPF().convertToDouble() : - CFP->getValueAPF().convertToFloat(); + double Val = isDouble ? APF.convertToDouble() : + APF.convertToFloat(); SmallString<128> StrVal; raw_svector_ostream(StrVal) << Val; @@ -1132,12 +1133,11 @@ // x86, so we must not use these types. static_assert(sizeof(double) == sizeof(uint64_t), "assuming that double is 64 bits!"); - APFloat apf = CFP->getValueAPF(); // Floats are represented in ASCII IR as double, convert. if (!isDouble) - apf.convert(APFloat::IEEEdouble, APFloat::rmNearestTiesToEven, + APF.convert(APFloat::IEEEdouble, APFloat::rmNearestTiesToEven, &ignored); - Out << format_hex(apf.bitcastToAPInt().getZExtValue(), 0, /*Upper=*/true); + Out << format_hex(APF.bitcastToAPInt().getZExtValue(), 0, /*Upper=*/true); return; } Index: lib/Support/APFloat.cpp =================================================================== --- lib/Support/APFloat.cpp +++ lib/Support/APFloat.cpp @@ -3583,7 +3583,7 @@ Str.push_back('-'); if (!FormatMaxPadding) - append(Str, "0.0E+0"); + append(Str, "0.0e+00"); else Str.push_back('0'); return; @@ -3723,7 +3723,7 @@ else for (unsigned I = 1; I != NDigits; ++I) Str.push_back(buffer[NDigits-1-I]); - Str.push_back('E'); + Str.push_back('e'); Str.push_back(exp >= 0 ? '+' : '-'); if (exp < 0) exp = -exp; @@ -3732,6 +3732,9 @@ expbuf.push_back((char) ('0' + (exp % 10))); exp /= 10; } while (exp); + // Number of exponent digits should be at least 2 + if (expbuf.size() == 1) + Str.push_back('0'); for (unsigned I = 0, E = expbuf.size(); I != E; ++I) Str.push_back(expbuf[E-1-I]); return; Index: lib/Support/raw_ostream.cpp =================================================================== --- lib/Support/raw_ostream.cpp +++ lib/Support/raw_ostream.cpp @@ -12,6 +12,7 @@ //===----------------------------------------------------------------------===// #include "llvm/Support/raw_ostream.h" +#include "llvm/ADT/APFloat.h" #include "llvm/ADT/STLExtras.h" #include "llvm/ADT/SmallVector.h" #include "llvm/ADT/StringExtras.h" @@ -228,44 +229,12 @@ } raw_ostream &raw_ostream::operator<<(double N) { -#ifdef _WIN32 - // On MSVCRT and compatible, output of %e is incompatible to Posix - // by default. Number of exponent digits should be at least 2. "%+03d" - // FIXME: Implement our formatter to here or Support/Format.h! -#if __cplusplus >= 201103L && defined(__MINGW32__) - // FIXME: It should be generic to C++11. - if (N == 0.0 && std::signbit(N)) - return *this << "-0.000000e+00"; -#else - int fpcl = _fpclass(N); - - // negative zero - if (fpcl == _FPCLASS_NZ) - return *this << "-0.000000e+00"; -#endif - - char buf[16]; - unsigned len; - len = format("%e", N).snprint(buf, sizeof(buf)); - if (len <= sizeof(buf) - 2) { - if (len >= 5 && buf[len - 5] == 'e' && buf[len - 3] == '0') { - int cs = buf[len - 4]; - if (cs == '+' || cs == '-') { - int c1 = buf[len - 2]; - int c0 = buf[len - 1]; - if (isdigit(static_cast(c1)) && - isdigit(static_cast(c0))) { - // Trim leading '0': "...e+012" -> "...e+12\0" - buf[len - 3] = c1; - buf[len - 2] = c0; - buf[--len] = 0; - } - } - } - return this->operator<<(buf); - } -#endif - return this->operator<<(format("%e", N)); + // We don't use libc formatting as it is locale-depending, see PR #12906 + APFloat APF = APFloat(N); + SmallString<128> StrVal; + // FormatMaxPadding=0 to always use scientific notation + APF.toString(StrVal, /* FormatPrecision */ 6, /* FormatMaxPadding */ 0); + return this->operator<<(StrVal); } Index: test/Analysis/BasicAA/full-store-partial-alias.ll =================================================================== --- test/Analysis/BasicAA/full-store-partial-alias.ll +++ test/Analysis/BasicAA/full-store-partial-alias.ll @@ -10,7 +10,7 @@ %union.anon = type { double } -@u = global %union.anon { double -2.500000e-01 }, align 8 +@u = global %union.anon { double -2.5e-01 }, align 8 @endianness_test = global i64 1, align 8 define i32 @signbit(double %x) nounwind { Index: test/Analysis/BasicAA/phi-and-select.ll =================================================================== --- test/Analysis/BasicAA/phi-and-select.ll +++ test/Analysis/BasicAA/phi-and-select.ll @@ -36,8 +36,8 @@ entry: %a = select i1 %m, double* %x, double* %y %b = select i1 %m, double* %y, double* %x - store volatile double 0.000000e+00, double* %a - store volatile double 1.000000e+00, double* %b + store volatile double 0.0e+00, double* %a + store volatile double 1.0e+00, double* %b ret void } @@ -76,7 +76,7 @@ entry: %a = select i1 %m, double* %x, double* %y %b = select i1 %n, double* %v, double* %w - store volatile double 0.000000e+00, double* %a - store volatile double 1.000000e+00, double* %b + store volatile double 0.0e+00, double* %a + store volatile double 1.0e+00, double* %b ret void } Index: test/Analysis/BasicAA/phi-spec-order.ll =================================================================== --- test/Analysis/BasicAA/phi-spec-order.ll +++ test/Analysis/BasicAA/phi-spec-order.ll @@ -25,20 +25,20 @@ %lsr.iv12 = bitcast [16000 x double]* %lsr.iv1 to <4 x double>* %scevgep11 = getelementptr <4 x double>, <4 x double>* %lsr.iv46, i64 -2 %i6 = load <4 x double>, <4 x double>* %scevgep11, align 32 - %add = fadd <4 x double> %i6, + %add = fadd <4 x double> %i6, store <4 x double> %add, <4 x double>* %lsr.iv12, align 32 %scevgep10 = getelementptr <4 x double>, <4 x double>* %lsr.iv46, i64 -1 %i7 = load <4 x double>, <4 x double>* %scevgep10, align 32 - %add.4 = fadd <4 x double> %i7, + %add.4 = fadd <4 x double> %i7, %scevgep9 = getelementptr <4 x double>, <4 x double>* %lsr.iv12, i64 1 store <4 x double> %add.4, <4 x double>* %scevgep9, align 32 %i8 = load <4 x double>, <4 x double>* %lsr.iv46, align 32 - %add.8 = fadd <4 x double> %i8, + %add.8 = fadd <4 x double> %i8, %scevgep8 = getelementptr <4 x double>, <4 x double>* %lsr.iv12, i64 2 store <4 x double> %add.8, <4 x double>* %scevgep8, align 32 %scevgep7 = getelementptr <4 x double>, <4 x double>* %lsr.iv46, i64 1 %i9 = load <4 x double>, <4 x double>* %scevgep7, align 32 - %add.12 = fadd <4 x double> %i9, + %add.12 = fadd <4 x double> %i9, %scevgep3 = getelementptr <4 x double>, <4 x double>* %lsr.iv12, i64 3 store <4 x double> %add.12, <4 x double>* %scevgep3, align 32 Index: test/Analysis/BranchProbabilityInfo/pr22718.ll =================================================================== --- test/Analysis/BranchProbabilityInfo/pr22718.ll +++ test/Analysis/BranchProbabilityInfo/pr22718.ll @@ -31,9 +31,9 @@ for.body: ; preds = %for.cond %call = call i32 @rand() #3 %conv = sitofp i32 %call to double - %mul = fmul double %conv, 1.000000e+02 + %mul = fmul double %conv, 1.0e+02 %div = fdiv double %mul, 0x41E0000000000000 - %cmp1 = fcmp ogt double %div, 9.000000e+01 + %cmp1 = fcmp ogt double %div, 9.0e+01 br i1 %cmp1, label %if.then, label %if.else, !prof !2 if.then: ; preds = %for.body Index: test/Analysis/CFLAliasAnalysis/full-store-partial-alias.ll =================================================================== --- test/Analysis/CFLAliasAnalysis/full-store-partial-alias.ll +++ test/Analysis/CFLAliasAnalysis/full-store-partial-alias.ll @@ -11,7 +11,7 @@ %union.anon = type { double } -@u = global %union.anon { double -2.500000e-01 }, align 8 +@u = global %union.anon { double -2.5e-01 }, align 8 @endianness_test = global i64 1, align 8 define i32 @signbit(double %x) nounwind { Index: test/Analysis/Delinearization/himeno_1.ll =================================================================== --- test/Analysis/Delinearization/himeno_1.ll +++ test/Analysis/Delinearization/himeno_1.ll @@ -72,7 +72,7 @@ %tmp3 = mul i64 %tmp2, %a.deps.sext %tmp4 = add nsw i64 %k, %tmp3 %arrayidx = getelementptr inbounds float, float* %a.base, i64 %tmp4 - store float 1.000000e+00, float* %arrayidx + store float 1.0e+00, float* %arrayidx %k.inc = add nsw i64 %k, 1 %k.exitcond = icmp eq i64 %k.inc, %p.deps.sext br i1 %k.exitcond, label %for.j.inc, label %for.k Index: test/Analysis/Delinearization/himeno_2.ll =================================================================== --- test/Analysis/Delinearization/himeno_2.ll +++ test/Analysis/Delinearization/himeno_2.ll @@ -72,7 +72,7 @@ %tmp3 = mul i64 %tmp2, %a.deps.sext %tmp4 = add nsw i64 %k, %tmp3 %arrayidx = getelementptr inbounds float, float* %a.base, i64 %tmp4 - store float 1.000000e+00, float* %arrayidx + store float 1.0e+00, float* %arrayidx %k.inc = add nsw i64 %k, 1 %k.exitcond = icmp eq i64 %k.inc, %p.deps.sext br i1 %k.exitcond, label %for.j.inc, label %for.k Index: test/Analysis/Delinearization/multidim_ivs_and_integer_offsets_nts_3d.ll =================================================================== --- test/Analysis/Delinearization/multidim_ivs_and_integer_offsets_nts_3d.ll +++ test/Analysis/Delinearization/multidim_ivs_and_integer_offsets_nts_3d.ll @@ -52,7 +52,7 @@ %arrayidx.sum.us.us = add i64 %k.019.us.us, 7 %arrayidx9.sum.us.us = add i64 %arrayidx.sum.us.us, %tmp17.us.us %arrayidx10.us.us = getelementptr inbounds double, double* %A, i64 %arrayidx9.sum.us.us - store double 1.000000e+00, double* %arrayidx10.us.us, align 8 + store double 1.0e+00, double* %arrayidx10.us.us, align 8 %inc.us.us = add nsw i64 %k.019.us.us, 1 %exitcond = icmp eq i64 %inc.us.us, %o br i1 %exitcond, label %for.inc11.us.us, label %for.body6.us.us Index: test/Analysis/Delinearization/multidim_only_ivs_2d_nested.ll =================================================================== --- test/Analysis/Delinearization/multidim_only_ivs_2d_nested.ll +++ test/Analysis/Delinearization/multidim_only_ivs_2d_nested.ll @@ -54,7 +54,7 @@ %j.021.us.us = phi i64 [ 0, %for.body9.lr.ph.us.us ], [ %inc.us.us, %for.body9.us.us ] %arrayidx.sum.us.us = add i64 %j.021.us.us, %0 %arrayidx10.us.us = getelementptr inbounds double, double* %vla.us, i64 %arrayidx.sum.us.us - store double 1.000000e+00, double* %arrayidx10.us.us, align 8 + store double 1.0e+00, double* %arrayidx10.us.us, align 8 %inc.us.us = add nsw i64 %j.021.us.us, 1 %exitcond50 = icmp eq i64 %inc.us.us, %indvars.iv48 br i1 %exitcond50, label %for.inc11.us.us, label %for.body9.us.us Index: test/Analysis/DependenceAnalysis/Invariant.ll =================================================================== --- test/Analysis/DependenceAnalysis/Invariant.ll +++ test/Analysis/DependenceAnalysis/Invariant.ll @@ -13,7 +13,7 @@ for.cond1.preheader: %i.04 = phi i32 [ 0, %entry ], [ %add10, %for.inc9 ] - %res.03 = phi float [ 0.000000e+00, %entry ], [ %add.res.1, %for.inc9 ] + %res.03 = phi float [ 0.0e+00, %entry ], [ %add.res.1, %for.inc9 ] br label %for.body3 for.body3: Index: test/Analysis/GlobalsModRef/chaining-analysis.ll =================================================================== --- test/Analysis/GlobalsModRef/chaining-analysis.ll +++ test/Analysis/GlobalsModRef/chaining-analysis.ll @@ -10,10 +10,10 @@ define i32 @test(i32* %P) { ; CHECK: @test ; CHECK-NEXT: store i32 12, i32* @X -; CHECK-NEXT: call double @doesnotmodX(double 1.000000e+00) +; CHECK-NEXT: call double @doesnotmodX(double 1.0e+00) ; CHECK-NEXT: ret i32 12 store i32 12, i32* @X - call double @doesnotmodX( double 1.000000e+00 ) ; :1 [#uses=0] + call double @doesnotmodX( double 1.0e+00 ) ; :1 [#uses=0] %V = load i32, i32* @X ; [#uses=1] ret i32 %V } Index: test/Analysis/ScalarEvolution/nsw-offset-assume.ll =================================================================== --- test/Analysis/ScalarEvolution/nsw-offset-assume.ll +++ test/Analysis/ScalarEvolution/nsw-offset-assume.ll @@ -56,7 +56,7 @@ %10 = load double, double* %9, align 8 ; [#uses=1] %11 = fadd double %6, %10 ; [#uses=1] - %12 = fadd double %11, 3.200000e+00 ; [#uses=1] + %12 = fadd double %11, 3.2e+00 ; [#uses=1] %13 = fmul double %3, %12 ; [#uses=1] %14 = sext i32 %i.01 to i64 ; [#uses=1] %15 = getelementptr inbounds double, double* %d, i64 %14 ; [#uses=1] Index: test/Analysis/ScalarEvolution/nsw-offset.ll =================================================================== --- test/Analysis/ScalarEvolution/nsw-offset.ll +++ test/Analysis/ScalarEvolution/nsw-offset.ll @@ -54,7 +54,7 @@ %10 = load double, double* %9, align 8 ; [#uses=1] %11 = fadd double %6, %10 ; [#uses=1] - %12 = fadd double %11, 3.200000e+00 ; [#uses=1] + %12 = fadd double %11, 3.2e+00 ; [#uses=1] %13 = fmul double %3, %12 ; [#uses=1] %14 = sext i32 %i.01 to i64 ; [#uses=1] %15 = getelementptr inbounds double, double* %d, i64 %14 ; [#uses=1] Index: test/Analysis/ScalarEvolution/nsw.ll =================================================================== --- test/Analysis/ScalarEvolution/nsw.ll +++ test/Analysis/ScalarEvolution/nsw.ll @@ -8,7 +8,7 @@ define void @test1(double* %p) nounwind { entry: %tmp = load double, double* %p, align 8 ; [#uses=1] - %tmp1 = fcmp ogt double %tmp, 2.000000e+00 ; [#uses=1] + %tmp1 = fcmp ogt double %tmp, 2.0e+00 ; [#uses=1] br i1 %tmp1, label %bb.nph, label %return bb.nph: ; preds = %entry @@ -21,7 +21,7 @@ %tmp2 = sext i32 %i.01 to i64 ; [#uses=1] %tmp3 = getelementptr double, double* %p, i64 %tmp2 ; [#uses=1] %tmp4 = load double, double* %tmp3, align 8 ; [#uses=1] - %tmp5 = fmul double %tmp4, 9.200000e+00 ; [#uses=1] + %tmp5 = fmul double %tmp4, 9.2e+00 ; [#uses=1] %tmp6 = sext i32 %i.01 to i64 ; [#uses=1] %tmp7 = getelementptr double, double* %p, i64 %tmp6 ; [#uses=1] ; CHECK: %tmp7 @@ -40,7 +40,7 @@ ; CHECK: %tmp9 ; CHECK-NEXT: --> {(8 + %p),+,8}<%bb> %tmp10 = load double, double* %tmp9, align 8 ; [#uses=1] - %tmp11 = fcmp ogt double %tmp10, 2.000000e+00 ; [#uses=1] + %tmp11 = fcmp ogt double %tmp10, 2.0e+00 ; [#uses=1] br i1 %tmp11, label %bb, label %bb1.return_crit_edge bb1.return_crit_edge: ; preds = %bb1 Index: test/Analysis/ScalarEvolution/sext-iv-0.ll =================================================================== --- test/Analysis/ScalarEvolution/sext-iv-0.ll +++ test/Analysis/ScalarEvolution/sext-iv-0.ll @@ -25,7 +25,7 @@ ; CHECK-NEXT: --> {-128,+,1}<%bb1>{{ U: [^ ]+ S: [^ ]+}}{{ *}}Exits: 127 %3 = getelementptr double, double* %x, i64 %2 ; [#uses=1] %4 = load double, double* %3, align 8 ; [#uses=1] - %5 = fmul double %4, 3.900000e+00 ; [#uses=1] + %5 = fmul double %4, 3.9e+00 ; [#uses=1] %6 = sext i8 %0 to i64 ; [#uses=1] %7 = getelementptr double, double* %x, i64 %6 ; [#uses=1] store double %5, double* %7, align 8 Index: test/Analysis/ScalarEvolution/sext-iv-1.ll =================================================================== --- test/Analysis/ScalarEvolution/sext-iv-1.ll +++ test/Analysis/ScalarEvolution/sext-iv-1.ll @@ -25,7 +25,7 @@ %2 = sext i9 %1 to i64 ; [#uses=1] %3 = getelementptr double, double* %x, i64 %2 ; [#uses=1] %4 = load double, double* %3, align 8 ; [#uses=1] - %5 = fmul double %4, 3.900000e+00 ; [#uses=1] + %5 = fmul double %4, 3.9e+00 ; [#uses=1] %6 = sext i7 %0 to i64 ; [#uses=1] %7 = getelementptr double, double* %x, i64 %6 ; [#uses=1] store double %5, double* %7, align 8 @@ -48,7 +48,7 @@ %2 = sext i9 %1 to i64 ; [#uses=1] %3 = getelementptr double, double* %x, i64 %2 ; [#uses=1] %4 = load double, double* %3, align 8 ; [#uses=1] - %5 = fmul double %4, 3.900000e+00 ; [#uses=1] + %5 = fmul double %4, 3.9e+00 ; [#uses=1] %6 = sext i8 %0 to i64 ; [#uses=1] %7 = getelementptr double, double* %x, i64 %6 ; [#uses=1] store double %5, double* %7, align 8 @@ -71,7 +71,7 @@ %2 = sext i9 %1 to i64 ; [#uses=1] %3 = getelementptr double, double* %x, i64 %2 ; [#uses=1] %4 = load double, double* %3, align 8 ; [#uses=1] - %5 = fmul double %4, 3.900000e+00 ; [#uses=1] + %5 = fmul double %4, 3.9e+00 ; [#uses=1] %6 = sext i8 %0 to i64 ; [#uses=1] %7 = getelementptr double, double* %x, i64 %6 ; [#uses=1] store double %5, double* %7, align 8 @@ -94,7 +94,7 @@ %2 = sext i9 %1 to i64 ; [#uses=1] %3 = getelementptr double, double* %x, i64 %2 ; [#uses=1] %4 = load double, double* %3, align 8 ; [#uses=1] - %5 = fmul double %4, 3.900000e+00 ; [#uses=1] + %5 = fmul double %4, 3.9e+00 ; [#uses=1] %6 = sext i8 %0 to i64 ; [#uses=1] %7 = getelementptr double, double* %x, i64 %6 ; [#uses=1] store double %5, double* %7, align 8 Index: test/Analysis/ScalarEvolution/sle.ll =================================================================== --- test/Analysis/ScalarEvolution/sle.ll +++ test/Analysis/ScalarEvolution/sle.ll @@ -16,7 +16,7 @@ %i = phi i64 [ %i.next, %for.body ], [ 0, %entry ] ; [#uses=2] %arrayidx = getelementptr double, double* %p, i64 %i ; [#uses=2] %t4 = load double, double* %arrayidx ; [#uses=1] - %mul = fmul double %t4, 2.200000e+00 ; [#uses=1] + %mul = fmul double %t4, 2.2e+00 ; [#uses=1] store double %mul, double* %arrayidx %i.next = add nsw i64 %i, 1 ; [#uses=2] %cmp = icmp sgt i64 %i.next, %n ; [#uses=1] Index: test/Analysis/ScalarEvolution/trip-count4.ll =================================================================== --- test/Analysis/ScalarEvolution/trip-count4.ll +++ test/Analysis/ScalarEvolution/trip-count4.ll @@ -14,7 +14,7 @@ %indvar.i8 = ashr i64 %s0, 8 ; [#uses=1] %t0 = getelementptr double, double* %d, i64 %indvar.i8 ; [#uses=2] %t1 = load double, double* %t0 ; [#uses=1] - %t2 = fmul double %t1, 1.000000e-01 ; [#uses=1] + %t2 = fmul double %t1, 1.0e-01 ; [#uses=1] store double %t2, double* %t0 %indvar.next = sub i64 %indvar, 1 ; [#uses=2] %exitcond = icmp eq i64 %indvar.next, 10 ; [#uses=1] Index: test/Analysis/ScalarEvolution/trip-count5.ll =================================================================== --- test/Analysis/ScalarEvolution/trip-count5.ll +++ test/Analysis/ScalarEvolution/trip-count5.ll @@ -17,7 +17,7 @@ br label %bb bb: ; preds = %bb1, %bb.nph - %distERBhi.036 = phi float [ %tmp10, %bb1 ], [ 0.000000e+00, %bb.nph ] ; [#uses=1] + %distERBhi.036 = phi float [ %tmp10, %bb1 ], [ 0.0e+00, %bb.nph ] ; [#uses=1] %hiPart.035 = phi i32 [ %tmp12, %bb1 ], [ 0, %bb.nph ] ; [#uses=2] %peakCount.034 = phi float [ %tmp19, %bb1 ], [ %tmp3, %bb.nph ] ; [#uses=1] %tmp6 = sext i32 %hiPart.035 to i64 ; [#uses=1] @@ -32,7 +32,7 @@ br label %bb1 bb1: ; preds = %bb - %tmp21 = fcmp olt float %tmp10, 2.500000e+00 ; [#uses=1] + %tmp21 = fcmp olt float %tmp10, 2.5e+00 ; [#uses=1] %tmp25 = icmp slt i32 %tmp12, %bim ; [#uses=1] %tmp27 = and i1 %tmp21, %tmp25 ; [#uses=1] br i1 %tmp27, label %bb, label %bb1.bb4_crit_edge @@ -41,7 +41,7 @@ br label %bb4 bb4: ; preds = %bb1.bb4_crit_edge, %entry - %distERBhi.0.lcssa = phi float [ %tmp10, %bb1.bb4_crit_edge ], [ 0.000000e+00, %entry ] ; [#uses=1] + %distERBhi.0.lcssa = phi float [ %tmp10, %bb1.bb4_crit_edge ], [ 0.0e+00, %entry ] ; [#uses=1] %peakCount.0.lcssa = phi float [ %tmp19, %bb1.bb4_crit_edge ], [ %tmp3, %entry ] ; [#uses=1] %tmp31 = fdiv float %peakCount.0.lcssa, %distERBhi.0.lcssa ; [#uses=1] ret float %tmp31 Index: test/Analysis/TypeBasedAliasAnalysis/licm.ll =================================================================== --- test/Analysis/TypeBasedAliasAnalysis/licm.ll +++ test/Analysis/TypeBasedAliasAnalysis/licm.ll @@ -19,7 +19,7 @@ %tmp3 = load double*, double** @P, !tbaa !1 %scevgep = getelementptr double, double* %tmp3, i64 %i.07 %tmp4 = load double, double* %scevgep, !tbaa !2 - %mul = fmul double %tmp4, 2.300000e+00 + %mul = fmul double %tmp4, 2.3e+00 store double %mul, double* %scevgep, !tbaa !2 %inc = add i64 %i.07, 1 %exitcond = icmp eq i64 %inc, %n Index: test/Assembler/2002-04-07-HexFloatConstants.ll =================================================================== --- test/Assembler/2002-04-07-HexFloatConstants.ll +++ test/Assembler/2002-04-07-HexFloatConstants.ll @@ -12,6 +12,6 @@ ; RUN: verify-uselistorder %s define double @test() { - %tmp = fmul double 7.200000e+101, 0x427F4000 ; [#uses=1] + %tmp = fmul double 7.2e+101, 0x427F4000 ; [#uses=1] ret double %tmp } Index: test/Assembler/2002-04-07-InfConstant.ll =================================================================== --- test/Assembler/2002-04-07-InfConstant.ll +++ test/Assembler/2002-04-07-InfConstant.ll @@ -4,7 +4,7 @@ ; RUN: verify-uselistorder %s define float @test() { - %tmp = fmul float 0x7FF0000000000000, 1.000000e+01 ; [#uses=1] + %tmp = fmul float 0x7FF0000000000000, 1.0e+01 ; [#uses=1] ret float %tmp } Index: test/Assembler/2004-02-01-NegativeZero.ll =================================================================== --- test/Assembler/2004-02-01-NegativeZero.ll +++ test/Assembler/2004-02-01-NegativeZero.ll @@ -1,9 +1,9 @@ ; RUN: llvm-as < %s | llvm-dis | FileCheck %s ; RUN: verify-uselistorder %s -; CHECK: global double -0.000000e+00 +; CHECK: global double -0.0e+00 global double 0x8000000000000000 -; CHECK: global float -0.000000e+00 +; CHECK: global float -0.0e+00 global float -0.0 Index: test/Assembler/2004-02-27-SelfUseAssertError.ll =================================================================== --- test/Assembler/2004-02-27-SelfUseAssertError.ll +++ test/Assembler/2004-02-27-SelfUseAssertError.ll @@ -8,7 +8,7 @@ ret void no_exit.2: ; preds = %endif.6 - %tmp.103 = fcmp olt double 0.000000e+00, 0.000000e+00 ; [#uses=1] + %tmp.103 = fcmp olt double 0.0e+00, 0.0e+00 ; [#uses=1] br i1 %tmp.103, label %endif.6, label %else.0 else.0: ; preds = %no_exit.2 Index: test/Assembler/insertextractvalue.ll =================================================================== --- test/Assembler/insertextractvalue.ll +++ test/Assembler/insertextractvalue.ll @@ -16,15 +16,15 @@ } ; CHECK: @bar -; CHECK-NEXT: store { { i32 }, { float, double } } { { i32 } { i32 4 }, { float, double } { float 4.000000e+00, double 2.000000e+01 } }, { { i32 }, { float, double } }* %p -; CHECK-NEXT: ret float 7.000000e+00 +; CHECK-NEXT: store { { i32 }, { float, double } } { { i32 } { i32 4 }, { float, double } { float 4.0e+00, double 2.0e+01 } }, { { i32 }, { float, double } }* %p +; CHECK-NEXT: ret float 7.0e+00 define float @bar({{i32},{float, double}}* %p) nounwind { store {{i32},{float, double}} insertvalue ({{i32},{float, double}}{{i32}{i32 4},{float, double}{float 4.0, double 5.0}}, double 20.0, 1, 1), {{i32},{float, double}}* %p ret float extractvalue ({{i32},{float, double}}{{i32}{i32 3},{float, double}{float 7.0, double 9.0}}, 1, 0) } ; CHECK: @car -; CHECK-NEXT: store { { i32 }, { float, double } } { { i32 } undef, { float, double } { float undef, double 2.000000e+01 } }, { { i32 }, { float, double } }* %p +; CHECK-NEXT: store { { i32 }, { float, double } } { { i32 } undef, { float, double } { float undef, double 2.0e+01 } }, { { i32 }, { float, double } }* %p ; CHECK-NEXT: ret float undef define float @car({{i32},{float, double}}* %p) nounwind { store {{i32},{float, double}} insertvalue ({{i32},{float, double}} undef, double 20.0, 1, 1), {{i32},{float, double}}* %p @@ -32,8 +32,8 @@ } ; CHECK: @dar -; CHECK-NEXT: store { { i32 }, { float, double } } { { i32 } zeroinitializer, { float, double } { float 0.000000e+00, double 2.000000e+01 } }, { { i32 }, { float, double } }* %p -; CHECK-NEXT: ret float 0.000000e+00 +; CHECK-NEXT: store { { i32 }, { float, double } } { { i32 } zeroinitializer, { float, double } { float 0.0e+00, double 2.0e+01 } }, { { i32 }, { float, double } }* %p +; CHECK-NEXT: ret float 0.0e+00 define float @dar({{i32},{float, double}}* %p) nounwind { store {{i32},{float, double}} insertvalue ({{i32},{float, double}} zeroinitializer, double 20.0, 1, 1), {{i32},{float, double}}* %p ret float extractvalue ({{i32},{float, double}} zeroinitializer, 1, 0) Index: test/Assembler/unnamed.ll =================================================================== --- test/Assembler/unnamed.ll +++ test/Assembler/unnamed.ll @@ -18,24 +18,24 @@ define float @foo(%0* %p) nounwind { %t = load %0, %0* %p ; <%0> [#uses=2] %s = extractvalue %0 %t, 1, 0 ; [#uses=1] - %r = insertvalue %0 %t, double 2.000000e+00, 1, 1; <%0> [#uses=1] + %r = insertvalue %0 %t, double 2.0e+00, 1, 1; <%0> [#uses=1] store %0 %r, %0* %p ret float %s } define float @bar(%0* %p) nounwind { - store %0 { %1 { i32 4 }, %2 { float 4.000000e+00, double 2.000000e+01 } }, %0* %p - ret float 7.000000e+00 + store %0 { %1 { i32 4 }, %2 { float 4.0e+00, double 2.0e+01 } }, %0* %p + ret float 7.0e+00 } define float @car(%0* %p) nounwind { - store %0 { %1 undef, %2 { float undef, double 2.000000e+01 } }, %0* %p + store %0 { %1 undef, %2 { float undef, double 2.0e+01 } }, %0* %p ret float undef } define float @dar(%0* %p) nounwind { - store %0 { %1 zeroinitializer, %2 { float 0.000000e+00, double 2.000000e+01 } }, %0* %p - ret float 0.000000e+00 + store %0 { %1 zeroinitializer, %2 { float 0.0e+00, double 2.0e+01 } }, %0* %p + ret float 0.0e+00 } define i32* @qqq() { Index: test/Bitcode/compatibility-3.6.ll =================================================================== --- test/Bitcode/compatibility-3.6.ll +++ test/Bitcode/compatibility-3.6.ll @@ -800,8 +800,8 @@ define void @instructions.vectorops(<4 x float> %vec, <4 x float> %vec2) { extractelement <4 x float> %vec, i8 0 ; CHECK: extractelement <4 x float> %vec, i8 0 - insertelement <4 x float> %vec, float 3.500000e+00, i8 0 - ; CHECK: insertelement <4 x float> %vec, float 3.500000e+00, i8 0 + insertelement <4 x float> %vec, float 3.5e+00, i8 0 + ; CHECK: insertelement <4 x float> %vec, float 3.5e+00, i8 0 shufflevector <4 x float> %vec, <4 x float> %vec2, <2 x i32> zeroinitializer ; CHECK: shufflevector <4 x float> %vec, <4 x float> %vec2, <2 x i32> zeroinitializer Index: test/Bitcode/compatibility-3.7.ll =================================================================== --- test/Bitcode/compatibility-3.7.ll +++ test/Bitcode/compatibility-3.7.ll @@ -842,8 +842,8 @@ define void @instructions.vectorops(<4 x float> %vec, <4 x float> %vec2) { extractelement <4 x float> %vec, i8 0 ; CHECK: extractelement <4 x float> %vec, i8 0 - insertelement <4 x float> %vec, float 3.500000e+00, i8 0 - ; CHECK: insertelement <4 x float> %vec, float 3.500000e+00, i8 0 + insertelement <4 x float> %vec, float 3.5e+00, i8 0 + ; CHECK: insertelement <4 x float> %vec, float 3.5e+00, i8 0 shufflevector <4 x float> %vec, <4 x float> %vec2, <2 x i32> zeroinitializer ; CHECK: shufflevector <4 x float> %vec, <4 x float> %vec2, <2 x i32> zeroinitializer Index: test/Bitcode/compatibility.ll =================================================================== --- test/Bitcode/compatibility.ll +++ test/Bitcode/compatibility.ll @@ -58,9 +58,9 @@ @constant.array.i64 = constant [3 x i64] [i64 -0, i64 1, i64 0] ; CHECK: @constant.array.f16 = constant [3 x half] [half 0xH8000, half 0xH3C00, half 0xH0000] @constant.array.f16 = constant [3 x half] [half -0.0, half 1.0, half 0.0] -; CHECK: @constant.array.f32 = constant [3 x float] [float -0.000000e+00, float 1.000000e+00, float 0.000000e+00] +; CHECK: @constant.array.f32 = constant [3 x float] [float -0.0e+00, float 1.0e+00, float 0.0e+00] @constant.array.f32 = constant [3 x float] [float -0.0, float 1.0, float 0.0] -; CHECK: @constant.array.f64 = constant [3 x double] [double -0.000000e+00, double 1.000000e+00, double 0.000000e+00] +; CHECK: @constant.array.f64 = constant [3 x double] [double -0.0e+00, double 1.0e+00, double 0.0e+00] @constant.array.f64 = constant [3 x double] [double -0.0, double 1.0, double 0.0] ; CHECK: @constant.vector.i8 = constant <3 x i8> @@ -73,9 +73,9 @@ @constant.vector.i64 = constant <3 x i64> ; CHECK: @constant.vector.f16 = constant <3 x half> @constant.vector.f16 = constant <3 x half> -; CHECK: @constant.vector.f32 = constant <3 x float> +; CHECK: @constant.vector.f32 = constant <3 x float> @constant.vector.f32 = constant <3 x float> -; CHECK: @constant.vector.f64 = constant <3 x double> +; CHECK: @constant.vector.f64 = constant <3 x double> @constant.vector.f64 = constant <3 x double> ;; Global Variables @@ -993,8 +993,8 @@ define void @instructions.vectorops(<4 x float> %vec, <4 x float> %vec2) { extractelement <4 x float> %vec, i8 0 ; CHECK: extractelement <4 x float> %vec, i8 0 - insertelement <4 x float> %vec, float 3.500000e+00, i8 0 - ; CHECK: insertelement <4 x float> %vec, float 3.500000e+00, i8 0 + insertelement <4 x float> %vec, float 3.5e+00, i8 0 + ; CHECK: insertelement <4 x float> %vec, float 3.5e+00, i8 0 shufflevector <4 x float> %vec, <4 x float> %vec2, <2 x i32> zeroinitializer ; CHECK: shufflevector <4 x float> %vec, <4 x float> %vec2, <2 x i32> zeroinitializer @@ -1376,8 +1376,8 @@ entry: %l = load i32, i32* %ptr %x = add i32 42, 1 - call void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.000000e+00, i64 100, i32 %l) ] -; CHECK: call void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.000000e+00, i64 100, i32 %l) ] + call void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.0e+00, i64 100, i32 %l) ] +; CHECK: call void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.0e+00, i64 100, i32 %l) ] ret void } @@ -1389,10 +1389,10 @@ call void @op_bundle_callee_0() call void @op_bundle_callee_0() [ "foo"() ] - call void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.000000e+00, i64 100, i32 %l) ] + call void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.0e+00, i64 100, i32 %l) ] ; CHECK: @op_bundle_callee_0(){{$}} ; CHECK-NEXT: call void @op_bundle_callee_0() [ "foo"() ] -; CHECK-NEXT: call void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.000000e+00, i64 100, i32 %l) ] +; CHECK-NEXT: call void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.0e+00, i64 100, i32 %l) ] ret void } @@ -1409,8 +1409,8 @@ entry: %l = load i32, i32* %ptr %x = add i32 42, 1 - call void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] -; CHECK: call void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] + call void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] +; CHECK: call void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] ret void } @@ -1419,8 +1419,8 @@ entry: %l = load i32, i32* %ptr %x = add i32 42, 1 - call void @op_bundle_callee_1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] -; CHECK: call void @op_bundle_callee_1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] + call void @op_bundle_callee_1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] +; CHECK: call void @op_bundle_callee_1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] ret void } @@ -1432,8 +1432,8 @@ entry: %l = load i32, i32* %ptr %x = add i32 42, 1 - invoke void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.000000e+00, i64 100, i32 %l) ] to label %normal unwind label %exception -; CHECK: invoke void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.000000e+00, i64 100, i32 %l) ] + invoke void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.0e+00, i64 100, i32 %l) ] to label %normal unwind label %exception +; CHECK: invoke void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.0e+00, i64 100, i32 %l) ] exception: %cleanup = landingpad i8 cleanup @@ -1464,8 +1464,8 @@ br label %normal1 normal1: - invoke void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] to label %normal2 unwind label %exception2 -; CHECK: invoke void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] + invoke void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] to label %normal2 unwind label %exception2 +; CHECK: invoke void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] exception2: %cleanup2 = landingpad i8 cleanup @@ -1493,8 +1493,8 @@ entry: %l = load i32, i32* %ptr %x = add i32 42, 1 - invoke void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] to label %normal unwind label %exception -; CHECK: invoke void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] + invoke void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] to label %normal unwind label %exception +; CHECK: invoke void @op_bundle_callee_0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] exception: %cleanup = landingpad i8 cleanup @@ -1508,9 +1508,9 @@ entry: %l = load i32, i32* %ptr %x = add i32 42, 1 - invoke void @op_bundle_callee_1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] + invoke void @op_bundle_callee_1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] to label %normal unwind label %exception -; CHECK: invoke void @op_bundle_callee_1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] +; CHECK: invoke void @op_bundle_callee_1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] exception: %cleanup = landingpad i8 cleanup Index: test/Bitcode/constantsTest.3.2.ll =================================================================== --- test/Bitcode/constantsTest.3.2.ll +++ test/Bitcode/constantsTest.3.2.ll @@ -20,9 +20,9 @@ store i32 %x, i32* null ; boolean -; CHECK-NEXT: %res1 = fcmp true float 1.000000e+00, 1.000000e+00 +; CHECK-NEXT: %res1 = fcmp true float 1.0e+00, 1.0e+00 %res1 = fcmp true float 1.0, 1.0 -; CHECK-NEXT: %res2 = fcmp false float 1.000000e+00, 1.000000e+00 +; CHECK-NEXT: %res2 = fcmp false float 1.0e+00, 1.0e+00 %res2 = fcmp false float 1.0, 1.0 ;integer @@ -30,7 +30,7 @@ %res3 = add i32 0, 0 ;float -; CHECK-NEXT: %res4 = fadd float 0.000000e+00, 0.000000e+00 +; CHECK-NEXT: %res4 = fadd float 0.0e+00, 0.0e+00 %res4 = fadd float 0.0, 0.0 ret void @@ -39,7 +39,7 @@ define void @ComplexConstants(<2 x i32> %x){ entry: ;constant structure -; CHECK: %res1 = extractvalue { i32, float } { i32 1, float 2.000000e+00 }, 0 +; CHECK: %res1 = extractvalue { i32, float } { i32 1, float 2.0e+00 }, 0 %res1 = extractvalue {i32, float} {i32 1, float 2.0}, 0 ;const array @@ -83,11 +83,11 @@ zext i8 1 to i32 ; CHECK-NEXT: sext i8 1 to i32 sext i8 1 to i32 - ; CHECK-NEXT: fptrunc double 1.000000e+00 to float + ; CHECK-NEXT: fptrunc double 1.0e+00 to float fptrunc double 1.0 to float - ; CHECK-NEXT: fpext float 1.000000e+00 to double + ; CHECK-NEXT: fpext float 1.0e+00 to double fpext float 1.0 to double - ; CHECK-NEXT: fptosi float 1.000000e+00 to i32 + ; CHECK-NEXT: fptosi float 1.0e+00 to i32 fptosi float 1.0 to i32 ; CHECK-NEXT: uitofp i32 1 to float uitofp i32 1 to float @@ -107,7 +107,7 @@ select i1 true ,i32 1, i32 0 ; CHECK-NEXT: icmp eq i32 1, 0 icmp eq i32 1, 0 - ; CHECK-NEXT: fcmp oeq float 1.000000e+00, 0.000000e+00 + ; CHECK-NEXT: fcmp oeq float 1.0e+00, 0.0e+00 fcmp oeq float 1.0, 0.0 ; CHECK-NEXT: extractelement <2 x i32> , i32 1 extractelement <2 x i32> , i32 1 @@ -115,10 +115,10 @@ insertelement <2 x i32> , i32 0, i32 1 ; CHECK-NEXT: shufflevector <2 x i32> , <2 x i32> zeroinitializer, <4 x i32> shufflevector <2 x i32> , <2 x i32> zeroinitializer, <4 x i32> - ; CHECK-NEXT: extractvalue { i32, float } { i32 1, float 2.000000e+00 }, 0 + ; CHECK-NEXT: extractvalue { i32, float } { i32 1, float 2.0e+00 }, 0 extractvalue { i32, float } { i32 1, float 2.0 }, 0 - ; CHECK-NEXT: insertvalue { i32, float } { i32 1, float 2.000000e+00 }, i32 0, 0 + ; CHECK-NEXT: insertvalue { i32, float } { i32 1, float 2.0e+00 }, i32 0, 0 insertvalue { i32, float } { i32 1, float 2.0 }, i32 0, 0 ret void } \ No newline at end of file Index: test/Bitcode/operand-bundles.ll =================================================================== --- test/Bitcode/operand-bundles.ll +++ test/Bitcode/operand-bundles.ll @@ -8,8 +8,8 @@ entry: %l = load i32, i32* %ptr %x = add i32 42, 1 - call void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.000000e+00, i64 100, i32 %l) ] -; CHECK: call void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.000000e+00, i64 100, i32 %l) ] + call void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.0e+00, i64 100, i32 %l) ] +; CHECK: call void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.0e+00, i64 100, i32 %l) ] ret void } @@ -21,10 +21,10 @@ call void @callee0() call void @callee0() [ "foo"() ] - call void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.000000e+00, i64 100, i32 %l) ] + call void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.0e+00, i64 100, i32 %l) ] ; CHECK: @callee0(){{$}} ; CHECK-NEXT: call void @callee0() [ "foo"() ] -; CHECK-NEXT: call void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.000000e+00, i64 100, i32 %l) ] +; CHECK-NEXT: call void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.0e+00, i64 100, i32 %l) ] ret void } @@ -41,8 +41,8 @@ entry: %l = load i32, i32* %ptr %x = add i32 42, 1 - call void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] -; CHECK: call void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] + call void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] +; CHECK: call void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] ret void } @@ -51,8 +51,8 @@ entry: %l = load i32, i32* %ptr %x = add i32 42, 1 - call void @callee1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] -; CHECK: call void @callee1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] + call void @callee1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] +; CHECK: call void @callee1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] ret void } @@ -64,8 +64,8 @@ entry: %l = load i32, i32* %ptr %x = add i32 42, 1 - invoke void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.000000e+00, i64 100, i32 %l) ] to label %normal unwind label %exception -; CHECK: invoke void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.000000e+00, i64 100, i32 %l) ] + invoke void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.0e+00, i64 100, i32 %l) ] to label %normal unwind label %exception +; CHECK: invoke void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "bar"(float 0.0e+00, i64 100, i32 %l) ] exception: %cleanup = landingpad i8 cleanup @@ -96,8 +96,8 @@ br label %normal1 normal1: - invoke void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] to label %normal2 unwind label %exception2 -; CHECK: invoke void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] + invoke void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] to label %normal2 unwind label %exception2 +; CHECK: invoke void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] exception2: %cleanup2 = landingpad i8 cleanup @@ -125,8 +125,8 @@ entry: %l = load i32, i32* %ptr %x = add i32 42, 1 - invoke void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] to label %normal unwind label %exception -; CHECK: invoke void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] + invoke void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] to label %normal unwind label %exception +; CHECK: invoke void @callee0() [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] exception: %cleanup = landingpad i8 cleanup @@ -140,9 +140,9 @@ entry: %l = load i32, i32* %ptr %x = add i32 42, 1 - invoke void @callee1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] + invoke void @callee1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] to label %normal unwind label %exception -; CHECK: invoke void @callee1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.000000e+00, i32 %l) ] +; CHECK: invoke void @callee1(i32 10, i32 %x) [ "foo"(i32 42, i64 100, i32 %x), "foo"(i32 42, float 0.0e+00, i32 %l) ] exception: %cleanup = landingpad i8 cleanup Index: test/Bitcode/select.ll =================================================================== --- test/Bitcode/select.ll +++ test/Bitcode/select.ll @@ -10,9 +10,9 @@ ; CHECK: } define <2 x float> @f() { - ret <2 x float> select (i1 ptrtoint (<2 x float> ()* @f to i1), <2 x float> , <2 x float> zeroinitializer) + ret <2 x float> select (i1 ptrtoint (<2 x float> ()* @f to i1), <2 x float> , <2 x float> zeroinitializer) } ; CHECK: define <2 x float> @f() { -; CHECK: ret <2 x float> select (i1 ptrtoint (<2 x float> ()* @f to i1), <2 x float> , <2 x float> zeroinitializer) +; CHECK: ret <2 x float> select (i1 ptrtoint (<2 x float> ()* @f to i1), <2 x float> , <2 x float> zeroinitializer) ; CHECK: } Index: test/Bitcode/upgrade-tbaa.ll =================================================================== --- test/Bitcode/upgrade-tbaa.ll +++ test/Bitcode/upgrade-tbaa.ll @@ -6,8 +6,8 @@ entry: store i32 0, i32* %pI, align 4, !tbaa !{!"int", !0} ; CHECK: store i32 0, i32* %pI, align 4, !tbaa [[TAG_INT:!.*]] - store float 1.000000e+00, float* %pF, align 4, !tbaa !2 - ; CHECK: store float 1.000000e+00, float* %pF, align 4, !tbaa [[TAG_FLOAT:!.*]] + store float 1.0e+00, float* %pF, align 4, !tbaa !2 + ; CHECK: store float 1.0e+00, float* %pF, align 4, !tbaa [[TAG_FLOAT:!.*]] ret void } Index: test/CodeGen/AArch64/PBQP-csr.ll =================================================================== --- test/CodeGen/AArch64/PBQP-csr.ll +++ test/CodeGen/AArch64/PBQP-csr.ll @@ -36,7 +36,7 @@ br label %for.body for.body: ; preds = %for.body.lr.ph, %for.body - %5 = phi double [ 0.000000e+00, %for.body.lr.ph ], [ %add6.i, %for.body ] + %5 = phi double [ 0.0e+00, %for.body.lr.ph ], [ %add6.i, %for.body ] %indvars.iv = phi i64 [ 0, %for.body.lr.ph ], [ %indvars.iv.next, %for.body ] %6 = phi <2 x double> [ zeroinitializer, %for.body.lr.ph ], [ %17, %for.body ] %7 = phi <2 x double> [ zeroinitializer, %for.body.lr.ph ], [ %22, %for.body ] Index: test/CodeGen/AArch64/aarch64-a57-fp-load-balancing.ll =================================================================== --- test/CodeGen/AArch64/aarch64-a57-fp-load-balancing.ll +++ test/CodeGen/AArch64/aarch64-a57-fp-load-balancing.ll @@ -144,7 +144,7 @@ %sub = fsub fast double %add6, %mul7 %mul8 = fmul fast double %2, %3 %add9 = fadd fast double %mul8, %sub - %cmp = fcmp oeq double %3, 0.000000e+00 + %cmp = fcmp oeq double %3, 0.0e+00 br i1 %cmp, label %if.then, label %if.end if.then: ; preds = %entry @@ -239,7 +239,7 @@ %sub = fsub fast float %add6, %mul7 %mul8 = fmul fast float %2, %3 %add9 = fadd fast float %mul8, %sub - %cmp = fcmp oeq float %3, 0.000000e+00 + %cmp = fcmp oeq float %3, 0.0e+00 br i1 %cmp, label %if.then, label %if.end if.then: ; preds = %entry Index: test/CodeGen/AArch64/aarch64-address-type-promotion-assertion.ll =================================================================== --- test/CodeGen/AArch64/aarch64-address-type-promotion-assertion.ll +++ test/CodeGen/AArch64/aarch64-address-type-promotion-assertion.ll @@ -22,7 +22,7 @@ br label %if.end356 if.else313: - %cmp314 = fcmp olt double undef, 0.000000e+00 + %cmp314 = fcmp olt double undef, 0.0e+00 br i1 %cmp314, label %invoke.cont317, label %invoke.cont353 invoke.cont317: @@ -49,7 +49,7 @@ br label %if.end356 if.end356: - %lo.2 = phi double [ 0.000000e+00, %invoke.cont291 ], [ %lo.1, %invoke.cont342 ], [ undef, %invoke.cont353 ], [ %lo.1, %invoke.cont334 ] + %lo.2 = phi double [ 0.0e+00, %invoke.cont291 ], [ %lo.1, %invoke.cont342 ], [ undef, %invoke.cont353 ], [ %lo.1, %invoke.cont334 ] call void null(i32 %0, double %lo.2) unreachable } Index: test/CodeGen/AArch64/arm64-2011-03-09-CPSRSpill.ll =================================================================== --- test/CodeGen/AArch64/arm64-2011-03-09-CPSRSpill.ll +++ test/CodeGen/AArch64/arm64-2011-03-09-CPSRSpill.ll @@ -17,10 +17,10 @@ br label %_ZN12gjkepa2_impl3EPA6appendERNS0_5sListEPNS0_5sFaceE.exit71 _ZN12gjkepa2_impl3EPA6appendERNS0_5sListEPNS0_5sFaceE.exit71: ; preds = %bb.i69, %bb3.i - %0 = select i1 undef, float 0.000000e+00, float undef + %0 = select i1 undef, float 0.0e+00, float undef %1 = fdiv float %0, undef %2 = fcmp ult float %1, 0xBF847AE140000000 - %storemerge9 = select i1 %2, float %1, float 0.000000e+00 + %storemerge9 = select i1 %2, float %1, float 0.0e+00 store float %storemerge9, float* undef, align 4 br i1 undef, label %bb42, label %bb47 Index: test/CodeGen/AArch64/arm64-2013-01-23-frem-crash.ll =================================================================== --- test/CodeGen/AArch64/arm64-2013-01-23-frem-crash.ll +++ test/CodeGen/AArch64/arm64-2013-01-23-frem-crash.ll @@ -3,7 +3,7 @@ define void @autogen_SD13158() { entry: - %B26 = frem float 0.000000e+00, undef + %B26 = frem float 0.0e+00, undef br i1 undef, label %CF, label %CF77 CF: ; preds = %CF, %CF76 Index: test/CodeGen/AArch64/arm64-abi.ll =================================================================== --- test/CodeGen/AArch64/arm64-abi.ll +++ test/CodeGen/AArch64/arm64-abi.ll @@ -80,14 +80,14 @@ ; FAST: mov x[[ADDR:[0-9]+]], sp ; FAST: str [[REG_1:q[0-9]+]], [x[[ADDR]], #16] %0 = load <4 x i32>, <4 x i32>* %in, align 16 - %call = tail call double @args_vec_4i(double 3.000000e+00, <4 x i32> %0, <4 x i32> %0, <4 x i32> %0, <4 x i32> %0, <4 x i32> %0, <4 x i32> %0, <4 x i32> %0, double 3.000000e+00, <4 x i32> %0, i8 signext 3) + %call = tail call double @args_vec_4i(double 3.0e+00, <4 x i32> %0, <4 x i32> %0, <4 x i32> %0, <4 x i32> %0, <4 x i32> %0, <4 x i32> %0, <4 x i32> %0, double 3.0e+00, <4 x i32> %0, i8 signext 3) ret double %call } declare double @args_vec_4i(double, <4 x i32>, <4 x i32>, <4 x i32>, <4 x i32>, <4 x i32>, <4 x i32>, <4 x i32>, double, <4 x i32>, i8 signext) ; rdar://12695237 ; d8 at sp, i in register w0. -@g_d = common global double 0.000000e+00, align 8 +@g_d = common global double 0.0e+00, align 8 define void @test1(float %f1, double %d1, double %d2, double %d3, double %d4, double %d5, double %d6, double %d7, double %d8, i32 %i) nounwind ssp { entry: @@ -134,9 +134,9 @@ ; FAST: mov x[[ADDR:[0-9]+]], sp ; FAST: str [[REG_1:d[0-9]+]], [x[[ADDR]], #8] %0 = load <2 x i32>, <2 x i32>* %in, align 8 - %call = tail call double @args_vec_2i(double 3.000000e+00, <2 x i32> %0, + %call = tail call double @args_vec_2i(double 3.0e+00, <2 x i32> %0, <2 x i32> %0, <2 x i32> %0, <2 x i32> %0, <2 x i32> %0, <2 x i32> %0, - <2 x i32> %0, float 3.000000e+00, <2 x i32> %0, i8 signext 3) + <2 x i32> %0, float 3.0e+00, <2 x i32> %0, i8 signext 3) ret double %call } declare double @args_vec_2i(double, <2 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, @@ -149,9 +149,9 @@ ; CHECK: str [[REG_2:w[0-9]+]], [sp] ; CHECK: orr w0, wzr, #0x3 %0 = load double, double* %in, align 8 - %call = tail call double @args_f64(double 3.000000e+00, double %0, double %0, + %call = tail call double @args_f64(double 3.0e+00, double %0, double %0, double %0, double %0, double %0, double %0, double %0, - float 3.000000e+00, double %0, i8 signext 3) + float 3.0e+00, double %0, i8 signext 3) ret double %call } declare double @args_f64(double, double, double, double, double, double, double, Index: test/CodeGen/AArch64/arm64-ccmp.ll =================================================================== --- test/CodeGen/AArch64/arm64-ccmp.ll +++ test/CodeGen/AArch64/arm64-ccmp.ll @@ -144,7 +144,7 @@ land.lhs.true: %conv = sitofp i32 %a to float %div = fdiv float %b, %conv - %cmp1 = fcmp oge float %div, 1.700000e+01 + %cmp1 = fcmp oge float %div, 1.7e+01 br i1 %cmp1, label %if.then, label %if.end if.then: Index: test/CodeGen/AArch64/arm64-dead-register-def-bug.ll =================================================================== --- test/CodeGen/AArch64/arm64-dead-register-def-bug.ll +++ test/CodeGen/AArch64/arm64-dead-register-def-bug.ll @@ -13,7 +13,7 @@ ; CHECK-NOT: orr xzr, xzr, #0x2 bb1: - %tmp1 = tail call float @ceilf(float 2.000000e+00) + %tmp1 = tail call float @ceilf(float 2.0e+00) %tmp2 = fptoui float %tmp1 to i64 br i1 undef, label %bb2, label %bb3 Index: test/CodeGen/AArch64/arm64-fast-isel-fcmp.ll =================================================================== --- test/CodeGen/AArch64/arm64-fast-isel-fcmp.ll +++ test/CodeGen/AArch64/arm64-fast-isel-fcmp.ll @@ -4,7 +4,7 @@ ; CHECK-LABEL: fcmp_float1 ; CHECK: fcmp s0, #0.0 ; CHECK-NEXT: cset {{w[0-9]+}}, ne - %1 = fcmp une float %a, 0.000000e+00 + %1 = fcmp une float %a, 0.0e+00 ret i1 %1 } @@ -20,7 +20,7 @@ ; CHECK-LABEL: fcmp_double1 ; CHECK: fcmp d0, #0.0 ; CHECK-NEXT: cset {{w[0-9]+}}, ne - %1 = fcmp une double %a, 0.000000e+00 + %1 = fcmp une double %a, 0.0e+00 ret i1 %1 } Index: test/CodeGen/AArch64/arm64-fast-isel-materialize.ll =================================================================== --- test/CodeGen/AArch64/arm64-fast-isel-materialize.ll +++ test/CodeGen/AArch64/arm64-fast-isel-materialize.ll @@ -4,7 +4,7 @@ define float @fmov_float1() { ; CHECK-LABEL: fmov_float1 ; CHECK: fmov s0, #1.25000000 - ret float 1.250000e+00 + ret float 1.25e+00 } define float @fmov_float2() { @@ -16,7 +16,7 @@ define double @fmov_double1() { ; CHECK-LABEL: fmov_double1 ; CHECK: fmov d0, #1.25000000 - ret double 1.250000e+00 + ret double 1.25e+00 } define double @fmov_double2() { Index: test/CodeGen/AArch64/arm64-fcmp-opt.ll =================================================================== --- test/CodeGen/AArch64/arm64-fcmp-opt.ll +++ test/CodeGen/AArch64/arm64-fcmp-opt.ll @@ -6,7 +6,7 @@ ; CHECK-LABEL: @fcmp_float1 ; CHECK: fcmp s0, #0.0 ; CHECK: cset w0, ne - %cmp = fcmp une float %a, 0.000000e+00 + %cmp = fcmp une float %a, 0.0e+00 ret i1 %cmp } @@ -24,7 +24,7 @@ ; CHECK-LABEL: @fcmp_double1 ; CHECK: fcmp d0, #0.0 ; CHECK: cset w0, ne - %cmp = fcmp une double %a, 0.000000e+00 + %cmp = fcmp une double %a, 0.0e+00 ret i1 %cmp } Index: test/CodeGen/AArch64/arm64-fcopysign.ll =================================================================== --- test/CodeGen/AArch64/arm64-fcopysign.ll +++ test/CodeGen/AArch64/arm64-fcopysign.ll @@ -41,7 +41,7 @@ ; CHECK: bit.16b v{{[0-9]+}}, v0, v[[CONST]] %0 = tail call double (...) @bar() nounwind %1 = fptrunc double %0 to float - %2 = tail call float @copysignf(float 5.000000e-01, float %1) nounwind readnone + %2 = tail call float @copysignf(float 5.0e-01, float %1) nounwind readnone %3 = fadd float %1, %2 ret float %3 } Index: test/CodeGen/AArch64/arm64-fmadd.ll =================================================================== --- test/CodeGen/AArch64/arm64-fmadd.ll +++ test/CodeGen/AArch64/arm64-fmadd.ll @@ -13,7 +13,7 @@ ; CHECK-LABEL: fnma32: ; CHECK: fnmadd s0, s0, s1, s2 %0 = tail call float @llvm.fma.f32(float %a, float %b, float %c) - %mul = fmul float %0, -1.000000e+00 + %mul = fmul float %0, -1.0e+00 ret float %mul } @@ -21,7 +21,7 @@ entry: ; CHECK-LABEL: fms32: ; CHECK: fmsub s0, s0, s1, s2 - %mul = fmul float %b, -1.000000e+00 + %mul = fmul float %b, -1.0e+00 %0 = tail call float @llvm.fma.f32(float %a, float %mul, float %c) ret float %0 } @@ -30,7 +30,7 @@ entry: ; CHECK-LABEL: fms32_com: ; CHECK: fmsub s0, s1, s0, s2 - %mul = fmul float %b, -1.000000e+00 + %mul = fmul float %b, -1.0e+00 %0 = tail call float @llvm.fma.f32(float %mul, float %a, float %c) ret float %0 } @@ -39,7 +39,7 @@ entry: ; CHECK-LABEL: fnms32: ; CHECK: fnmsub s0, s0, s1, s2 - %mul = fmul float %c, -1.000000e+00 + %mul = fmul float %c, -1.0e+00 %0 = tail call float @llvm.fma.f32(float %a, float %b, float %mul) ret float %0 } @@ -57,7 +57,7 @@ ; CHECK: fnmadd d0, d0, d1, d2 entry: %0 = tail call double @llvm.fma.f64(double %a, double %b, double %c) - %mul = fmul double %0, -1.000000e+00 + %mul = fmul double %0, -1.0e+00 ret double %mul } @@ -65,7 +65,7 @@ ; CHECK-LABEL: fms64: ; CHECK: fmsub d0, d0, d1, d2 entry: - %mul = fmul double %b, -1.000000e+00 + %mul = fmul double %b, -1.0e+00 %0 = tail call double @llvm.fma.f64(double %a, double %mul, double %c) ret double %0 } @@ -74,7 +74,7 @@ ; CHECK-LABEL: fms64_com: ; CHECK: fmsub d0, d1, d0, d2 entry: - %mul = fmul double %b, -1.000000e+00 + %mul = fmul double %b, -1.0e+00 %0 = tail call double @llvm.fma.f64(double %mul, double %a, double %c) ret double %0 } @@ -83,7 +83,7 @@ ; CHECK-LABEL: fnms64: ; CHECK: fnmsub d0, d0, d1, d2 entry: - %mul = fmul double %c, -1.000000e+00 + %mul = fmul double %c, -1.0e+00 %0 = tail call double @llvm.fma.f64(double %a, double %b, double %mul) ret double %0 } Index: test/CodeGen/AArch64/arm64-fmax-safe.ll =================================================================== --- test/CodeGen/AArch64/arm64-fmax-safe.ll +++ test/CodeGen/AArch64/arm64-fmax-safe.ll @@ -2,8 +2,8 @@ define double @test_direct(float %in) { ; CHECK-LABEL: test_direct: - %cmp = fcmp olt float %in, 0.000000e+00 - %val = select i1 %cmp, float 0.000000e+00, float %in + %cmp = fcmp olt float %in, 0.0e+00 + %val = select i1 %cmp, float 0.0e+00, float %in %longer = fpext float %val to double ret double %longer @@ -12,8 +12,8 @@ define double @test_cross(float %in) { ; CHECK-LABEL: test_cross: - %cmp = fcmp ult float %in, 0.000000e+00 - %val = select i1 %cmp, float %in, float 0.000000e+00 + %cmp = fcmp ult float %in, 0.0e+00 + %val = select i1 %cmp, float %in, float 0.0e+00 %longer = fpext float %val to double ret double %longer @@ -24,8 +24,8 @@ ; must become fminnm, not fmin. define double @test_cross_fail_nan(float %in) { ; CHECK-LABEL: test_cross_fail_nan: - %cmp = fcmp olt float %in, 0.000000e+00 - %val = select i1 %cmp, float %in, float 0.000000e+00 + %cmp = fcmp olt float %in, 0.0e+00 + %val = select i1 %cmp, float %in, float 0.0e+00 %longer = fpext float %val to double ret double %longer Index: test/CodeGen/AArch64/arm64-fmax.ll =================================================================== --- test/CodeGen/AArch64/arm64-fmax.ll +++ test/CodeGen/AArch64/arm64-fmax.ll @@ -2,8 +2,8 @@ define double @test_direct(float %in) { ; CHECK-LABEL: test_direct: - %cmp = fcmp nnan olt float %in, 0.000000e+00 - %val = select i1 %cmp, float 0.000000e+00, float %in + %cmp = fcmp nnan olt float %in, 0.0e+00 + %val = select i1 %cmp, float 0.0e+00, float %in %longer = fpext float %val to double ret double %longer @@ -12,8 +12,8 @@ define double @test_cross(float %in) { ; CHECK-LABEL: test_cross: - %cmp = fcmp nnan ult float %in, 0.000000e+00 - %val = select i1 %cmp, float %in, float 0.000000e+00 + %cmp = fcmp nnan ult float %in, 0.0e+00 + %val = select i1 %cmp, float %in, float 0.0e+00 %longer = fpext float %val to double ret double %longer @@ -24,8 +24,8 @@ ; can't be converted in safe-math mode. define double @test_cross_fail_nan(float %in) { ; CHECK-LABEL: test_cross_fail_nan: - %cmp = fcmp nnan olt float %in, 0.000000e+00 - %val = select i1 %cmp, float %in, float 0.000000e+00 + %cmp = fcmp nnan olt float %in, 0.0e+00 + %val = select i1 %cmp, float %in, float 0.0e+00 %longer = fpext float %val to double ret double %longer @@ -54,8 +54,8 @@ define float @test_f16(half %in) { ; CHECK-LABEL: test_f16: - %cmp = fcmp nnan ult half %in, 0.000000e+00 - %val = select i1 %cmp, half %in, half 0.000000e+00 + %cmp = fcmp nnan ult half %in, 0.0e+00 + %val = select i1 %cmp, half %in, half 0.0e+00 %longer = fpext half %val to float ret float %longer ; FIXME: It'd be nice for this to create an fmin instruction! Index: test/CodeGen/AArch64/arm64-fp-contract-zero.ll =================================================================== --- test/CodeGen/AArch64/arm64-fp-contract-zero.ll +++ test/CodeGen/AArch64/arm64-fp-contract-zero.ll @@ -7,8 +7,8 @@ ; CHECK-LABEL: test_fms_fold: ; CHECK: fmov {{d[0-9]+}}, xzr ; CHECK: ret - %mul = fmul double %a, 0.000000e+00 - %mul1 = fmul double %b, 0.000000e+00 + %mul = fmul double %a, 0.0e+00 + %mul1 = fmul double %b, 0.0e+00 %sub = fsub double %mul, %mul1 ret double %sub } \ No newline at end of file Index: test/CodeGen/AArch64/arm64-misched-basic-A53.ll =================================================================== --- test/CodeGen/AArch64/arm64-misched-basic-A53.ll +++ test/CodeGen/AArch64/arm64-misched-basic-A53.ll @@ -139,15 +139,15 @@ %add3 = fadd float %mul2, undef %mul4 = fmul float undef, %add3 %add5 = fadd float %mul4, undef - %sub6 = fsub float 0.000000e+00, undef + %sub6 = fsub float 0.0e+00, undef %sub7 = fsub float %add5, undef - %div8 = fdiv float 1.000000e+00, undef + %div8 = fdiv float 1.0e+00, undef %mul9 = fmul float %div8, %sub7 %mul14 = fmul float %sub6, %div8 - %mul10 = fsub float -0.000000e+00, %mul14 + %mul10 = fsub float -0.0e+00, %mul14 %mul15 = fmul float undef, %div8 - %mul11 = fsub float -0.000000e+00, %mul15 - %mul12 = fmul float 0.000000e+00, %div8 + %mul11 = fsub float -0.0e+00, %mul15 + %mul12 = fmul float 0.0e+00, %div8 %mul13 = fmul float %add1, %mul9 %mul21 = fmul float %add5, %mul11 %add22 = fadd float %mul13, %mul21 @@ -163,7 +163,7 @@ %mul57 = fmul float undef, %mul12 %add58 = fadd float %mul57, %mul52 store float %add58, float* %ptr, align 4 - %mul27 = fmul float 0.000000e+00, %mul9 + %mul27 = fmul float 0.0e+00, %mul9 %mul81 = fmul float undef, %mul10 %add82 = fadd float %mul27, %mul81 store float %add82, float* %ptr, align 4 Index: test/CodeGen/AArch64/arm64-neon-2velem-high.ll =================================================================== --- test/CodeGen/AArch64/arm64-neon-2velem-high.ll +++ test/CodeGen/AArch64/arm64-neon-2velem-high.ll @@ -541,7 +541,7 @@ entry: %vecinit.i = insertelement <2 x float> undef, float %n, i32 0 %vecinit1.i = insertelement <2 x float> %vecinit.i, float %n, i32 1 - %0 = fsub <2 x float> , %b + %0 = fsub <2 x float> , %b %1 = call <2 x float> @llvm.fma.v2f32(<2 x float> %0, <2 x float> %vecinit1.i, <2 x float> %a) ret <2 x float> %1 } @@ -555,7 +555,7 @@ %vecinit1.i = insertelement <4 x float> %vecinit.i, float %n, i32 1 %vecinit2.i = insertelement <4 x float> %vecinit1.i, float %n, i32 2 %vecinit3.i = insertelement <4 x float> %vecinit2.i, float %n, i32 3 - %0 = fsub <4 x float> , %b + %0 = fsub <4 x float> , %b %1 = call <4 x float> @llvm.fma.v4f32(<4 x float> %0, <4 x float> %vecinit3.i, <4 x float> %a) ret <4 x float> %1 } Index: test/CodeGen/AArch64/arm64-neon-2velem.ll =================================================================== --- test/CodeGen/AArch64/arm64-neon-2velem.ll +++ test/CodeGen/AArch64/arm64-neon-2velem.ll @@ -427,7 +427,7 @@ ; CHECK: fmls {{v[0-9]+}}.2s, {{v[0-9]+}}.2s, {{v[0-9]+}}.s[1] ; CHECK-NEXT: ret entry: - %sub = fsub <2 x float> , %v + %sub = fsub <2 x float> , %v %lane = shufflevector <2 x float> %sub, <2 x float> undef, <2 x i32> %0 = tail call <2 x float> @llvm.fma.v2f32(<2 x float> %lane, <2 x float> %b, <2 x float> %a) ret <2 x float> %0 @@ -438,7 +438,7 @@ ; CHECK: fmls {{v[0-9]+}}.4s, {{v[0-9]+}}.4s, {{v[0-9]+}}.s[1] ; CHECK-NEXT: ret entry: - %sub = fsub <2 x float> , %v + %sub = fsub <2 x float> , %v %lane = shufflevector <2 x float> %sub, <2 x float> undef, <4 x i32> %0 = tail call <4 x float> @llvm.fma.v4f32(<4 x float> %lane, <4 x float> %b, <4 x float> %a) ret <4 x float> %0 @@ -449,7 +449,7 @@ ; CHECK: fmls {{v[0-9]+}}.2s, {{v[0-9]+}}.2s, {{v[0-9]+}}.s[3] ; CHECK-NEXT: ret entry: - %sub = fsub <4 x float> , %v + %sub = fsub <4 x float> , %v %lane = shufflevector <4 x float> %sub, <4 x float> undef, <2 x i32> %0 = tail call <2 x float> @llvm.fma.v2f32(<2 x float> %lane, <2 x float> %b, <2 x float> %a) ret <2 x float> %0 @@ -460,7 +460,7 @@ ; CHECK: fmls {{v[0-9]+}}.4s, {{v[0-9]+}}.4s, {{v[0-9]+}}.s[3] ; CHECK-NEXT: ret entry: - %sub = fsub <4 x float> , %v + %sub = fsub <4 x float> , %v %lane = shufflevector <4 x float> %sub, <4 x float> undef, <4 x i32> %0 = tail call <4 x float> @llvm.fma.v4f32(<4 x float> %lane, <4 x float> %b, <4 x float> %a) ret <4 x float> %0 @@ -493,7 +493,7 @@ ; CHECK: fmls {{v[0-9]+}}.2d, {{v[0-9]+}}.2d, {{v[0-9]+}}.d[0] ; CHECK-NEXT: ret entry: - %sub = fsub <1 x double> , %v + %sub = fsub <1 x double> , %v %lane = shufflevector <1 x double> %sub, <1 x double> undef, <2 x i32> zeroinitializer %0 = tail call <2 x double> @llvm.fma.v2f64(<2 x double> %lane, <2 x double> %b, <2 x double> %a) ret <2 x double> %0 @@ -504,7 +504,7 @@ ; CHECK: fmls {{v[0-9]+}}.2d, {{v[0-9]+}}.2d, {{v[0-9]+}}.d[1] ; CHECK-NEXT: ret entry: - %sub = fsub <2 x double> , %v + %sub = fsub <2 x double> , %v %lane = shufflevector <2 x double> %sub, <2 x double> undef, <2 x i32> %0 = tail call <2 x double> @llvm.fma.v2f64(<2 x double> %lane, <2 x double> %b, <2 x double> %a) ret <2 x double> %0 @@ -528,7 +528,7 @@ ; CHECK-NEXT: ret entry: %extract.rhs = extractelement <1 x double> %v, i32 0 - %extract = fsub double -0.000000e+00, %extract.rhs + %extract = fsub double -0.0e+00, %extract.rhs %0 = tail call double @llvm.fma.f64(double %b, double %extract, double %a) ret double %0 } @@ -541,7 +541,7 @@ ; CHECK-NEXT: ret entry: %extract.rhs = extractelement <2 x float> %v, i32 1 - %extract = fsub float -0.000000e+00, %extract.rhs + %extract = fsub float -0.0e+00, %extract.rhs %0 = tail call float @llvm.fma.f32(float %b, float %extract, float %a) ret float %0 } @@ -552,7 +552,7 @@ ; CHECK-NEXT: ret entry: %extract.rhs = extractelement <4 x float> %v, i32 3 - %extract = fsub float -0.000000e+00, %extract.rhs + %extract = fsub float -0.0e+00, %extract.rhs %0 = tail call float @llvm.fma.f32(float %b, float %extract, float %a) ret float %0 } @@ -563,7 +563,7 @@ ; CHECK-NEXT: ret entry: %extract.rhs = extractelement <2 x double> %v, i32 1 - %extract = fsub double -0.000000e+00, %extract.rhs + %extract = fsub double -0.0e+00, %extract.rhs %0 = tail call double @llvm.fma.f64(double %b, double %extract, double %a) ret double %0 } @@ -573,7 +573,7 @@ ; CHCK: fmsub {{d[0-9]+}}, {{d[0-9]+}}, {{d[0-9]+}}, {{d[0-9]+}} ; CHCK-NEXT: ret entry: - %tmp0 = fsub <1 x double> , %v + %tmp0 = fsub <1 x double> , %v %tmp1 = extractelement <1 x double> %tmp0, i32 0 %0 = tail call double @llvm.fma.f64(double %b, double %tmp1, double %a) ret double %0 @@ -584,7 +584,7 @@ ; CHECK: fmls {{s[0-9]+}}, {{s[0-9]+}}, {{v[0-9]+}}.s[1] ; CHECK-NEXT: ret entry: - %tmp0 = fsub <2 x float> , %v + %tmp0 = fsub <2 x float> , %v %tmp1 = extractelement <2 x float> %tmp0, i32 1 %0 = tail call float @llvm.fma.f32(float %b, float %tmp1, float %a) ret float %0 @@ -595,7 +595,7 @@ ; CHECK: fmls {{s[0-9]+}}, {{s[0-9]+}}, {{v[0-9]+}}.s[3] ; CHECK-NEXT: ret entry: - %tmp0 = fsub <4 x float>, %v + %tmp0 = fsub <4 x float>, %v %tmp1 = extractelement <4 x float> %tmp0, i32 3 %0 = tail call float @llvm.fma.f32(float %b, float %tmp1, float %a) ret float %0 @@ -606,7 +606,7 @@ ; CHECK: fmls {{d[0-9]+}}, {{d[0-9]+}}, {{v[0-9]+}}.d[1] ; CHECK-NEXT: ret entry: - %tmp0 = fsub <2 x double>, %v + %tmp0 = fsub <2 x double>, %v %tmp1 = extractelement <2 x double> %tmp0, i32 1 %0 = tail call double @llvm.fma.f64(double %b, double %tmp1, double %a) ret double %0 @@ -1931,7 +1931,7 @@ ; CHECK: fmls {{v[0-9]+}}.2s, {{v[0-9]+}}.2s, {{v[0-9]+}}.s[0] ; CHECK-NEXT: ret entry: - %sub = fsub <2 x float> , %v + %sub = fsub <2 x float> , %v %lane = shufflevector <2 x float> %sub, <2 x float> undef, <2 x i32> zeroinitializer %0 = tail call <2 x float> @llvm.fma.v2f32(<2 x float> %lane, <2 x float> %b, <2 x float> %a) ret <2 x float> %0 @@ -1942,7 +1942,7 @@ ; CHECK: fmls {{v[0-9]+}}.4s, {{v[0-9]+}}.4s, {{v[0-9]+}}.s[0] ; CHECK-NEXT: ret entry: - %sub = fsub <2 x float> , %v + %sub = fsub <2 x float> , %v %lane = shufflevector <2 x float> %sub, <2 x float> undef, <4 x i32> zeroinitializer %0 = tail call <4 x float> @llvm.fma.v4f32(<4 x float> %lane, <4 x float> %b, <4 x float> %a) ret <4 x float> %0 @@ -1953,7 +1953,7 @@ ; CHECK: fmls {{v[0-9]+}}.2s, {{v[0-9]+}}.2s, {{v[0-9]+}}.s[0] ; CHECK-NEXT: ret entry: - %sub = fsub <4 x float> , %v + %sub = fsub <4 x float> , %v %lane = shufflevector <4 x float> %sub, <4 x float> undef, <2 x i32> zeroinitializer %0 = tail call <2 x float> @llvm.fma.v2f32(<2 x float> %lane, <2 x float> %b, <2 x float> %a) ret <2 x float> %0 @@ -1964,7 +1964,7 @@ ; CHECK: fmls {{v[0-9]+}}.4s, {{v[0-9]+}}.4s, {{v[0-9]+}}.s[0] ; CHECK-NEXT: ret entry: - %sub = fsub <4 x float> , %v + %sub = fsub <4 x float> , %v %lane = shufflevector <4 x float> %sub, <4 x float> undef, <4 x i32> zeroinitializer %0 = tail call <4 x float> @llvm.fma.v4f32(<4 x float> %lane, <4 x float> %b, <4 x float> %a) ret <4 x float> %0 @@ -1985,7 +1985,7 @@ ; CHECK: fmls {{v[0-9]+}}.2d, {{v[0-9]+}}.2d, {{v[0-9]+}}.d[0] ; CHECK-NEXT: ret entry: - %sub = fsub <2 x double> , %v + %sub = fsub <2 x double> , %v %lane = shufflevector <2 x double> %sub, <2 x double> undef, <2 x i32> zeroinitializer %0 = tail call <2 x double> @llvm.fma.v2f64(<2 x double> %lane, <2 x double> %b, <2 x double> %a) ret <2 x double> %0 Index: test/CodeGen/AArch64/arm64-neon-add-sub.ll =================================================================== --- test/CodeGen/AArch64/arm64-neon-add-sub.ll +++ test/CodeGen/AArch64/arm64-neon-add-sub.ll @@ -160,7 +160,7 @@ define <1 x double> @test_vfms_f64(<1 x double> %a, <1 x double> %b, <1 x double> %c) { ; CHECK-LABEL: test_vfms_f64 ; CHECK: fmsub d{{[0-9]+}}, d{{[0-9]+}}, d{{[0-9]+}}, d{{[0-9]+}} - %1 = fsub <1 x double> , %b + %1 = fsub <1 x double> , %b %2 = tail call <1 x double> @llvm.fma.v1f64(<1 x double> %1, <1 x double> %c, <1 x double> %a) ret <1 x double> %2 } @@ -224,7 +224,7 @@ define <1 x double> @test_vneg_f64(<1 x double> %a) { ; CHECK-LABEL: test_vneg_f64 ; CHECK: fneg d{{[0-9]+}}, d{{[0-9]+}} - %1 = fsub <1 x double> , %a + %1 = fsub <1 x double> , %a ret <1 x double> %1 } Index: test/CodeGen/AArch64/arm64-neon-copy.ll =================================================================== --- test/CodeGen/AArch64/arm64-neon-copy.ll +++ test/CodeGen/AArch64/arm64-neon-copy.ll @@ -733,7 +733,7 @@ ; CHECK-LABEL: test_bitcastv2f32tov1f64: ; CHECK: fneg {{v[0-9]+}}.2s, {{v[0-9]+}}.2s ; CHECK-NEXT: fcvtzs {{[xd][0-9]+}}, {{d[0-9]+}} - %sub.i = fsub <2 x float> , %a + %sub.i = fsub <2 x float> , %a %1 = bitcast <2 x float> %sub.i to <1 x double> %vcvt.i = fptosi <1 x double> %1 to <1 x i64> ret <1 x i64> %vcvt.i @@ -785,7 +785,7 @@ ; CHECK-NEXT: fneg {{v[0-9]+}}.2s, {{v[0-9]+}}.2s %vcvt.i = sitofp <1 x i64> %a to <1 x double> %1 = bitcast <1 x double> %vcvt.i to <2 x float> - %sub.i = fsub <2 x float> , %1 + %sub.i = fsub <2 x float> , %1 ret <2 x float> %sub.i } Index: test/CodeGen/AArch64/arm64-nvcast.ll =================================================================== --- test/CodeGen/AArch64/arm64-nvcast.ll +++ test/CodeGen/AArch64/arm64-nvcast.ll @@ -9,7 +9,7 @@ define void @test(float * %p1, i32 %v1) { entry: - %v2 = extractelement <3 x float> , i32 %v1 + %v2 = extractelement <3 x float> , i32 %v1 store float %v2, float* %p1, align 4 ret void } Index: test/CodeGen/AArch64/arm64-rev.ll =================================================================== --- test/CodeGen/AArch64/arm64-rev.ll +++ test/CodeGen/AArch64/arm64-rev.ll @@ -216,7 +216,7 @@ entry: %0 = bitcast float* %source to <4 x float>* %tmp2 = load <4 x float>, <4 x float>* %0, align 4 - %tmp5 = shufflevector <4 x float> , <4 x float> %tmp2, <4 x i32> + %tmp5 = shufflevector <4 x float> , <4 x float> %tmp2, <4 x i32> %arrayidx8 = getelementptr inbounds <4 x float>, <4 x float>* %dest, i32 11 store <4 x float> %tmp5, <4 x float>* %arrayidx8, align 4 ret void Index: test/CodeGen/AArch64/arm64-vector-insertion.ll =================================================================== --- test/CodeGen/AArch64/arm64-vector-insertion.ll +++ test/CodeGen/AArch64/arm64-vector-insertion.ll @@ -2,7 +2,7 @@ define void @test0f(float* nocapture %x, float %a) #0 { entry: - %0 = insertelement <4 x float> , float %a, i32 0 + %0 = insertelement <4 x float> , float %a, i32 0 %1 = bitcast float* %x to <4 x float>* store <4 x float> %0, <4 x float>* %1, align 16 ret void @@ -19,7 +19,7 @@ define void @test1f(float* nocapture %x, float %a) #0 { entry: - %0 = insertelement <4 x float> , float %a, i32 0 + %0 = insertelement <4 x float> , float %a, i32 0 %1 = bitcast float* %x to <4 x float>* store <4 x float> %0, <4 x float>* %1, align 16 ret void Index: test/CodeGen/AArch64/arm64-vmul.ll =================================================================== --- test/CodeGen/AArch64/arm64-vmul.ll +++ test/CodeGen/AArch64/arm64-vmul.ll @@ -544,7 +544,7 @@ ;CHECK-LABEL: fmls_indexed_2s: ;CHECK: fmls.2s entry: - %0 = fsub <2 x float> , %c + %0 = fsub <2 x float> , %c %lane = shufflevector <2 x float> %b, <2 x float> undef, <2 x i32> zeroinitializer %fmls1 = tail call <2 x float> @llvm.fma.v2f32(<2 x float> %0, <2 x float> %lane, <2 x float> %a) ret <2 x float> %fmls1 @@ -554,7 +554,7 @@ ;CHECK-LABEL: fmls_indexed_4s: ;CHECK: fmls.4s entry: - %0 = fsub <4 x float> , %c + %0 = fsub <4 x float> , %c %lane = shufflevector <4 x float> %b, <4 x float> undef, <4 x i32> zeroinitializer %fmls1 = tail call <4 x float> @llvm.fma.v4f32(<4 x float> %0, <4 x float> %lane, <4 x float> %a) ret <4 x float> %fmls1 @@ -564,7 +564,7 @@ ;CHECK-LABEL: fmls_indexed_2d: ;CHECK: fmls.2d entry: - %0 = fsub <2 x double> , %c + %0 = fsub <2 x double> , %c %lane = shufflevector <2 x double> %b, <2 x double> undef, <2 x i32> zeroinitializer %fmls1 = tail call <2 x double> @llvm.fma.v2f64(<2 x double> %0, <2 x double> %lane, <2 x double> %a) ret <2 x double> %fmls1 Index: test/CodeGen/AArch64/arm64-zero-cycle-zeroing.ll =================================================================== --- test/CodeGen/AArch64/arm64-zero-cycle-zeroing.ll +++ test/CodeGen/AArch64/arm64-zero-cycle-zeroing.ll @@ -10,7 +10,7 @@ ; CHECK: movi.2d v1, #0000000000000000 ; CHECK: movi.2d v2, #0000000000000000 ; CHECK: movi.2d v3, #0000000000000000 - tail call void @bar(double 0.000000e+00, double 0.000000e+00, double 0.000000e+00, double 0.000000e+00) nounwind + tail call void @bar(double 0.0e+00, double 0.0e+00, double 0.0e+00, double 0.0e+00) nounwind ret void } @@ -39,7 +39,7 @@ ; CHECK-NOT: fmov ; CHECK: movi.2d v0, #0000000000000000 ; CHECK: movi.2d v1, #0000000000000000 - tail call void @barf(float 0.000000e+00, float 0.000000e+00) nounwind + tail call void @barf(float 0.0e+00, float 0.0e+00) nounwind ret void } Index: test/CodeGen/AArch64/combine-comparisons-by-cse.ll =================================================================== --- test/CodeGen/AArch64/combine-comparisons-by-cse.ll +++ test/CodeGen/AArch64/combine-comparisons-by-cse.ll @@ -386,16 +386,16 @@ %add = zext i1 %cmp4 to i32 %cond = add nsw i32 %add, %call %call7 = call i32 @xoo(i32 %cond, i32 2) - %cmp9 = fcmp ogt double %call2, 0.000000e+00 + %cmp9 = fcmp ogt double %call2, 0.0e+00 br i1 %cmp9, label %cond.end14, label %cond.false12 cond.false12: ; preds = %if.end - %sub = fadd fast double %call2, -1.000000e+00 + %sub = fadd fast double %call2, -1.0e+00 br label %cond.end14 cond.end14: ; preds = %if.end, %cond.false12 %cond15 = phi double [ %sub, %cond.false12 ], [ %call2, %if.end ] - %call16 = call i32 @woo(double %cond15, double -2.000000e+00) + %call16 = call i32 @woo(double %cond15, double -2.0e+00) br label %return return: ; preds = %land.lhs.true, %cond.end14 Index: test/CodeGen/AArch64/emutls.ll =================================================================== --- test/CodeGen/AArch64/emutls.ll +++ test/CodeGen/AArch64/emutls.ll @@ -86,7 +86,7 @@ $_ZN1AIiE1xE = comdat any $_ZN1AIfE1xE = comdat any @_ZN1AIiE1xE = linkonce_odr thread_local global i32 0, comdat, align 4 -@_ZN1AIfE1xE = linkonce_odr thread_local global float 0.000000e+00, comdat, align 4 +@_ZN1AIfE1xE = linkonce_odr thread_local global float 0.0e+00, comdat, align 4 define i32 @_Z7getIntXv() { ; ARM64-LABEL: _Z7getIntXv: @@ -115,7 +115,7 @@ entry: %0 = load float, float* @_ZN1AIfE1xE, align 4 - %inc = fadd float %0, 1.000000e+00 + %inc = fadd float %0, 1.0e+00 store float %inc, float* @_ZN1AIfE1xE, align 4 ret float %0 } Index: test/CodeGen/AArch64/fcvt_combine.ll =================================================================== --- test/CodeGen/AArch64/fcvt_combine.ll +++ test/CodeGen/AArch64/fcvt_combine.ll @@ -5,7 +5,7 @@ ; CHECK: fcvtzs.2s v0, v0, #4 ; CHECK: ret define <2 x i32> @test1(<2 x float> %f) { - %mul.i = fmul <2 x float> %f, + %mul.i = fmul <2 x float> %f, %vcvt.i = fptosi <2 x float> %mul.i to <2 x i32> ret <2 x i32> %vcvt.i } @@ -15,7 +15,7 @@ ; CHECK: fcvtzs.4s v0, v0, #3 ; CHECK: ret define <4 x i32> @test2(<4 x float> %f) { - %mul.i = fmul <4 x float> %f, + %mul.i = fmul <4 x float> %f, %vcvt.i = fptosi <4 x float> %mul.i to <4 x i32> ret <4 x i32> %vcvt.i } @@ -25,7 +25,7 @@ ; CHECK: fcvtzs.2d v0, v0, #5 ; CHECK: ret define <2 x i64> @test3(<2 x double> %d) { - %mul.i = fmul <2 x double> %d, + %mul.i = fmul <2 x double> %d, %vcvt.i = fptosi <2 x double> %mul.i to <2 x i64> ret <2 x i64> %vcvt.i } @@ -37,7 +37,7 @@ ; CHECK: xtn.2s ; CHECK: ret define <2 x i32> @test4(<2 x double> %d) { - %mul.i = fmul <2 x double> %d, + %mul.i = fmul <2 x double> %d, %vcvt.i = fptosi <2 x double> %mul.i to <2 x i32> ret <2 x i32> %vcvt.i } @@ -48,7 +48,7 @@ ; CHECK: fcvtzs.2s v0, v0, #4 ; CHECK: ret define <2 x i16> @test5(<2 x float> %f) { - %mul.i = fmul <2 x float> %f, + %mul.i = fmul <2 x float> %f, %vcvt.i = fptosi <2 x float> %mul.i to <2 x i16> ret <2 x i16> %vcvt.i } @@ -61,7 +61,7 @@ ; CHECK: fcvtzs.2d v0, v0 ; CHECK: ret define <2 x i64> @test6(<2 x float> %f) { - %mul.i = fmul <2 x float> %f, + %mul.i = fmul <2 x float> %f, %vcvt.i = fptosi <2 x float> %mul.i to <2 x i64> ret <2 x i64> %vcvt.i } @@ -72,7 +72,7 @@ ; CHECK: fcvtzu.2s v0, v0, #4 ; CHECK: ret define <2 x i32> @test7(<2 x float> %f) { - %mul.i = fmul <2 x float> %f, + %mul.i = fmul <2 x float> %f, %vcvt.i = fptoui <2 x float> %mul.i to <2 x i32> ret <2 x i32> %vcvt.i } @@ -84,7 +84,7 @@ ; CHECK: fcvtzu.2s v0, v0 ; CHECK: ret define <2 x i32> @test8(<2 x float> %f) { - %mul.i = fmul <2 x float> %f, + %mul.i = fmul <2 x float> %f, %vcvt.i = fptoui <2 x float> %mul.i to <2 x i32> ret <2 x i32> %vcvt.i } @@ -95,7 +95,7 @@ ; CHECK: fcvtzu.2s v0, v0 ; CHECK: ret define <2 x i32> @test9(<2 x float> %f) { - %mul.i = fmul <2 x float> %f, + %mul.i = fmul <2 x float> %f, %vcvt.i = fptoui <2 x float> %mul.i to <2 x i32> ret <2 x i32> %vcvt.i } @@ -116,7 +116,7 @@ ; CHECK: fcvtzu.2s v0, v0, #3 ; CHECK: ret define <2 x i32> @test11(<2 x float> %f) { - %mul.i = fmul <2 x float> %f, + %mul.i = fmul <2 x float> %f, %vcvt.i = fptoui <2 x float> %mul.i to <2 x i32> ret <2 x i32> %vcvt.i } @@ -127,7 +127,7 @@ ; CHECK: fcvtzs.2s v0, v0 ; CHECK: ret define <2 x i32> @test12(<2 x float> %f) { - %mul.i = fmul <2 x float> %f, + %mul.i = fmul <2 x float> %f, %vcvt.i = fptosi <2 x float> %mul.i to <2 x i32> ret <2 x i32> %vcvt.i } Index: test/CodeGen/AArch64/postra-mi-sched.ll =================================================================== --- test/CodeGen/AArch64/postra-mi-sched.ll +++ test/CodeGen/AArch64/postra-mi-sched.ll @@ -4,7 +4,7 @@ ; pre-RA MI scheduler, fmul, fcvt and fdiv will be consecutive. The top-down ; post-RA MI scheduler will clean this up. -@d1 = common global double 0.000000e+00, align 8 +@d1 = common global double 0.0e+00, align 8 define i32 @test1(float %s2, float %s3, double %d, i32 %i2, i32 %i3) { entry: Index: test/CodeGen/AArch64/remat-float0.ll =================================================================== --- test/CodeGen/AArch64/remat-float0.ll +++ test/CodeGen/AArch64/remat-float0.ll @@ -11,8 +11,8 @@ ; CHECK: bl bar ; CHECK: fmov s0, wzr ; CHECK: bl bar - call void @bar(float 0.000000e+00) + call void @bar(float 0.0e+00) call void asm sideeffect "", "~{s0},~{s1},~{s2},~{s3},~{s4},~{s5},~{s6},~{s7},~{s8},~{s9},~{s10},~{s11},~{s12},~{s13},~{s14},~{s15},~{s16},~{s17},~{s18},~{s19},~{s20},~{s21},~{s22},~{s23},~{s24},~{s25},~{s26},~{s27},~{s28},~{s29},~{s30},~{s31}"() - call void @bar(float 0.000000e+00) + call void @bar(float 0.0e+00) ret void } Index: test/CodeGen/AArch64/tail-call.ll =================================================================== --- test/CodeGen/AArch64/tail-call.ll +++ test/CodeGen/AArch64/tail-call.ll @@ -117,7 +117,7 @@ %res.0 = insertvalue { [3 x float] } undef, float %arr.0, 0, 0 %res.01 = insertvalue { [3 x float] } %res.0, float %arr.1, 0, 1 - %res.012 = insertvalue { [3 x float] } %res.01, float 1.000000e+00, 0, 2 + %res.012 = insertvalue { [3 x float] } %res.01, float 1.0e+00, 0, 2 ret { [3 x float] } %res.012 } Index: test/CodeGen/AMDGPU/big_alu.ll =================================================================== --- test/CodeGen/AMDGPU/big_alu.ll +++ test/CodeGen/AMDGPU/big_alu.ll @@ -12,17 +12,17 @@ %4 = extractelement <4 x float> %reg1, i32 0 %5 = extractelement <4 x float> %reg9, i32 0 %6 = extractelement <4 x float> %reg8, i32 0 - %7 = fcmp ugt float %6, 0.000000e+00 + %7 = fcmp ugt float %6, 0.0e+00 %8 = select i1 %7, float %4, float %5 %9 = extractelement <4 x float> %reg1, i32 1 %10 = extractelement <4 x float> %reg9, i32 1 %11 = extractelement <4 x float> %reg8, i32 0 - %12 = fcmp ugt float %11, 0.000000e+00 + %12 = fcmp ugt float %11, 0.0e+00 %13 = select i1 %12, float %9, float %10 %14 = extractelement <4 x float> %reg1, i32 2 %15 = extractelement <4 x float> %reg9, i32 2 %16 = extractelement <4 x float> %reg8, i32 0 - %17 = fcmp ugt float %16, 0.000000e+00 + %17 = fcmp ugt float %16, 0.0e+00 %18 = select i1 %17, float %14, float %15 %19 = extractelement <4 x float> %reg1, i32 3 %20 = extractelement <4 x float> %reg9, i32 3 @@ -75,15 +75,15 @@ %67 = extractelement <4 x float> %66, i32 2 %68 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 9) %69 = extractelement <4 x float> %68, i32 0 - %70 = fcmp oge float %69, 3.500000e+00 + %70 = fcmp oge float %69, 3.5e+00 %71 = sext i1 %70 to i32 %72 = bitcast i32 %71 to float %73 = bitcast float %72 to i32 %74 = icmp ne i32 %73, 0 - %. = select i1 %74, float 0.000000e+00, float 0.000000e+00 + %. = select i1 %74, float 0.0e+00, float 0.0e+00 %75 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 9) %76 = extractelement <4 x float> %75, i32 0 - %77 = fcmp oge float %76, 2.000000e+00 + %77 = fcmp oge float %76, 2.0e+00 %78 = sext i1 %77 to i32 %79 = bitcast i32 %78 to float %80 = bitcast float %79 to i32 @@ -94,11 +94,11 @@ %82 = insertelement <4 x float> undef, float %30, i32 0 %83 = insertelement <4 x float> %82, float %31, i32 1 %84 = insertelement <4 x float> %83, float %32, i32 2 - %85 = insertelement <4 x float> %84, float 0.000000e+00, i32 3 + %85 = insertelement <4 x float> %84, float 0.0e+00, i32 3 %86 = insertelement <4 x float> undef, float %30, i32 0 %87 = insertelement <4 x float> %86, float %31, i32 1 %88 = insertelement <4 x float> %87, float %32, i32 2 - %89 = insertelement <4 x float> %88, float 0.000000e+00, i32 3 + %89 = insertelement <4 x float> %88, float 0.0e+00, i32 3 %90 = call float @llvm.AMDGPU.dp4(<4 x float> %85, <4 x float> %89) %91 = call float @llvm.AMDGPU.rsq.clamped.f32(float %90) %92 = fmul float %30, %91 @@ -107,34 +107,34 @@ %95 = insertelement <4 x float> undef, float %92, i32 0 %96 = insertelement <4 x float> %95, float %93, i32 1 %97 = insertelement <4 x float> %96, float %94, i32 2 - %98 = insertelement <4 x float> %97, float 0.000000e+00, i32 3 + %98 = insertelement <4 x float> %97, float 0.0e+00, i32 3 %99 = insertelement <4 x float> undef, float %37, i32 0 %100 = insertelement <4 x float> %99, float %38, i32 1 %101 = insertelement <4 x float> %100, float %39, i32 2 - %102 = insertelement <4 x float> %101, float 0.000000e+00, i32 3 + %102 = insertelement <4 x float> %101, float 0.0e+00, i32 3 %103 = call float @llvm.AMDGPU.dp4(<4 x float> %98, <4 x float> %102) %104 = insertelement <4 x float> undef, float %92, i32 0 %105 = insertelement <4 x float> %104, float %93, i32 1 %106 = insertelement <4 x float> %105, float %94, i32 2 - %107 = insertelement <4 x float> %106, float 0.000000e+00, i32 3 + %107 = insertelement <4 x float> %106, float 0.0e+00, i32 3 %108 = insertelement <4 x float> undef, float %40, i32 0 %109 = insertelement <4 x float> %108, float %41, i32 1 %110 = insertelement <4 x float> %109, float %42, i32 2 - %111 = insertelement <4 x float> %110, float 0.000000e+00, i32 3 + %111 = insertelement <4 x float> %110, float 0.0e+00, i32 3 %112 = call float @llvm.AMDGPU.dp4(<4 x float> %107, <4 x float> %111) - %113 = fsub float -0.000000e+00, %92 - %114 = fsub float -0.000000e+00, %93 - %115 = fsub float -0.000000e+00, %94 + %113 = fsub float -0.0e+00, %92 + %114 = fsub float -0.0e+00, %93 + %115 = fsub float -0.0e+00, %94 %116 = insertelement <4 x float> undef, float %34, i32 0 %117 = insertelement <4 x float> %116, float %35, i32 1 %118 = insertelement <4 x float> %117, float %36, i32 2 - %119 = insertelement <4 x float> %118, float 0.000000e+00, i32 3 + %119 = insertelement <4 x float> %118, float 0.0e+00, i32 3 %120 = insertelement <4 x float> undef, float %113, i32 0 %121 = insertelement <4 x float> %120, float %114, i32 1 %122 = insertelement <4 x float> %121, float %115, i32 2 - %123 = insertelement <4 x float> %122, float 0.000000e+00, i32 3 + %123 = insertelement <4 x float> %122, float 0.0e+00, i32 3 %124 = call float @llvm.AMDGPU.dp4(<4 x float> %119, <4 x float> %123) - %125 = fdiv float 1.000000e+00, %124 + %125 = fdiv float 1.0e+00, %124 %126 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 5) %127 = extractelement <4 x float> %126, i32 0 %128 = fmul float %127, %125 @@ -142,7 +142,7 @@ %130 = fmul float %112, %128 %131 = bitcast float %. to i32 %132 = sitofp i32 %131 to float - %133 = fdiv float 1.000000e+00, %132 + %133 = fdiv float 1.0e+00, %132 %134 = bitcast float %. to i32 %135 = add i32 %134, -1 %136 = bitcast i32 %135 to float @@ -150,16 +150,16 @@ br label %LOOP ENDIF136: ; preds = %ENDIF154, %main_body - %temp68.1 = phi float [ %591, %ENDIF154 ], [ 0.000000e+00, %main_body ] - %temp69.0 = phi float [ %593, %ENDIF154 ], [ 0.000000e+00, %main_body ] - %temp70.0 = phi float [ %595, %ENDIF154 ], [ 1.000000e+00, %main_body ] + %temp68.1 = phi float [ %591, %ENDIF154 ], [ 0.0e+00, %main_body ] + %temp69.0 = phi float [ %593, %ENDIF154 ], [ 0.0e+00, %main_body ] + %temp70.0 = phi float [ %595, %ENDIF154 ], [ 1.0e+00, %main_body ] %138 = fmul float %26, 0x3F847AE140000000 %139 = fmul float %27, 0x3F847AE140000000 %140 = fmul float %28, 0x3F847AE140000000 %141 = insertelement <4 x float> undef, float %138, i32 0 %142 = insertelement <4 x float> %141, float %139, i32 1 %143 = insertelement <4 x float> %142, float %140, i32 2 - %144 = insertelement <4 x float> %143, float 0.000000e+00, i32 3 + %144 = insertelement <4 x float> %143, float 0.0e+00, i32 3 %145 = extractelement <4 x float> %144, i32 0 %146 = extractelement <4 x float> %144, i32 1 %147 = extractelement <4 x float> %144, i32 2 @@ -179,7 +179,7 @@ %161 = insertelement <4 x float> undef, float %158, i32 0 %162 = insertelement <4 x float> %161, float %159, i32 1 %163 = insertelement <4 x float> %162, float %160, i32 2 - %164 = insertelement <4 x float> %163, float 0.000000e+00, i32 3 + %164 = insertelement <4 x float> %163, float 0.0e+00, i32 3 %165 = extractelement <4 x float> %164, i32 0 %166 = extractelement <4 x float> %164, i32 1 %167 = extractelement <4 x float> %164, i32 2 @@ -193,18 +193,18 @@ %175 = extractelement <4 x float> %173, i32 1 %176 = extractelement <4 x float> %173, i32 2 %177 = extractelement <4 x float> %173, i32 3 - %178 = fmul float %176, 3.000000e+03 + %178 = fmul float %176, 3.0e+03 %179 = fadd float %178, %28 - %180 = fdiv float 1.000000e+00, %33 + %180 = fdiv float 1.0e+00, %33 %181 = fmul float %32, %180 %182 = call float @fabs(float %181) %183 = fmul float %174, 0x3FD99999A0000000 %184 = fadd float %183, 0x3FAEB851E0000000 %185 = fmul float %175, 0x3FE3333340000000 %186 = fadd float %185, %184 - %187 = fmul float %176, 2.000000e+00 + %187 = fmul float %176, 2.0e+00 %188 = fadd float %187, %186 - %189 = fmul float %177, 4.000000e+00 + %189 = fmul float %177, 4.0e+00 %190 = fadd float %189, %188 %191 = fmul float %154, 0x3FB99999A0000000 %192 = fadd float %191, %190 @@ -217,40 +217,40 @@ %199 = fmul float 0xBE5EFB4CC0000000, %182 %200 = fmul float %199, %182 %201 = call float @llvm.exp2.f32(float %200) - %one.sub.a.i = fsub float 1.000000e+00, %201 + %one.sub.a.i = fsub float 1.0e+00, %201 %one.sub.ac.i = fmul float %one.sub.a.i, 0x3FA99999A0000000 %mul.i = fmul float %198, 0x3FA99999A0000000 %result.i = fadd float %mul.i, %one.sub.ac.i %202 = fadd float %result.i, 0x3FF4CCCCC0000000 %203 = fmul float %202, 0x3FE1C71C80000000 - %204 = call float @llvm.AMDGPU.clamp.f32(float %203, float 0.000000e+00, float 1.000000e+00) + %204 = call float @llvm.AMDGPU.clamp.f32(float %203, float 0.0e+00, float 1.0e+00) %205 = fadd float %result.i, 0x3FF4CCCCC0000000 %206 = fmul float %205, 0x3FE1C71C80000000 - %207 = call float @llvm.AMDGPU.clamp.f32(float %206, float 0.000000e+00, float 1.000000e+00) - %208 = fadd float %result.i, 2.000000e+00 + %207 = call float @llvm.AMDGPU.clamp.f32(float %206, float 0.0e+00, float 1.0e+00) + %208 = fadd float %result.i, 2.0e+00 %209 = fmul float %208, 0x3FD611A7A0000000 - %210 = call float @llvm.AMDGPU.clamp.f32(float %209, float 0.000000e+00, float 1.000000e+00) - %211 = fmul float 2.000000e+00, %204 - %212 = fsub float -0.000000e+00, %211 - %213 = fadd float 3.000000e+00, %212 + %210 = call float @llvm.AMDGPU.clamp.f32(float %209, float 0.0e+00, float 1.0e+00) + %211 = fmul float 2.0e+00, %204 + %212 = fsub float -0.0e+00, %211 + %213 = fadd float 3.0e+00, %212 %214 = fmul float %204, %213 %215 = fmul float %204, %214 - %216 = fmul float 2.000000e+00, %207 - %217 = fsub float -0.000000e+00, %216 - %218 = fadd float 3.000000e+00, %217 + %216 = fmul float 2.0e+00, %207 + %217 = fsub float -0.0e+00, %216 + %218 = fadd float 3.0e+00, %217 %219 = fmul float %207, %218 %220 = fmul float %207, %219 - %221 = fmul float 2.000000e+00, %210 - %222 = fsub float -0.000000e+00, %221 - %223 = fadd float 3.000000e+00, %222 + %221 = fmul float 2.0e+00, %210 + %222 = fsub float -0.0e+00, %221 + %223 = fadd float 3.0e+00, %222 %224 = fmul float %210, %223 %225 = fmul float %210, %224 %226 = fmul float %26, 0x3F368B5CC0000000 %227 = fmul float %27, 0x3F368B5CC0000000 %228 = insertelement <4 x float> undef, float %226, i32 0 %229 = insertelement <4 x float> %228, float %227, i32 1 - %230 = insertelement <4 x float> %229, float 0.000000e+00, i32 2 - %231 = insertelement <4 x float> %230, float 0.000000e+00, i32 3 + %230 = insertelement <4 x float> %229, float 0.0e+00, i32 2 + %231 = insertelement <4 x float> %230, float 0.0e+00, i32 3 %232 = extractelement <4 x float> %231, i32 0 %233 = extractelement <4 x float> %231, i32 1 %234 = insertelement <4 x float> undef, float %232, i32 0 @@ -261,8 +261,8 @@ %239 = extractelement <4 x float> %238, i32 0 %240 = insertelement <4 x float> undef, float %239, i32 0 %241 = insertelement <4 x float> %240, float %227, i32 1 - %242 = insertelement <4 x float> %241, float 0.000000e+00, i32 2 - %243 = insertelement <4 x float> %242, float 0.000000e+00, i32 3 + %242 = insertelement <4 x float> %241, float 0.0e+00, i32 2 + %243 = insertelement <4 x float> %242, float 0.0e+00, i32 3 %244 = extractelement <4 x float> %243, i32 0 %245 = insertelement <4 x float> undef, float %244, i32 0 %246 = insertelement <4 x float> %245, float undef, i32 1 @@ -276,37 +276,37 @@ %254 = fmul float %250, %215 %255 = fmul float %251, %220 %256 = fmul float %252, %225 - %257 = fmul float %253, 0.000000e+00 + %257 = fmul float %253, 0.0e+00 %258 = fadd float %result.i, 0x3FF4CCCCC0000000 %259 = fmul float %258, 0x3FE1C71C80000000 - %260 = call float @llvm.AMDGPU.clamp.f32(float %259, float 0.000000e+00, float 1.000000e+00) + %260 = call float @llvm.AMDGPU.clamp.f32(float %259, float 0.0e+00, float 1.0e+00) %261 = fadd float %result.i, 0x3FF4CCCCC0000000 %262 = fmul float %261, 0x3FE1C71C80000000 - %263 = call float @llvm.AMDGPU.clamp.f32(float %262, float 0.000000e+00, float 1.000000e+00) - %264 = fadd float %result.i, 2.000000e+00 + %263 = call float @llvm.AMDGPU.clamp.f32(float %262, float 0.0e+00, float 1.0e+00) + %264 = fadd float %result.i, 2.0e+00 %265 = fmul float %264, 0x3FD611A7A0000000 - %266 = call float @llvm.AMDGPU.clamp.f32(float %265, float 0.000000e+00, float 1.000000e+00) - %267 = fmul float 2.000000e+00, %260 - %268 = fsub float -0.000000e+00, %267 - %269 = fadd float 3.000000e+00, %268 + %266 = call float @llvm.AMDGPU.clamp.f32(float %265, float 0.0e+00, float 1.0e+00) + %267 = fmul float 2.0e+00, %260 + %268 = fsub float -0.0e+00, %267 + %269 = fadd float 3.0e+00, %268 %270 = fmul float %260, %269 %271 = fmul float %260, %270 - %272 = fmul float 2.000000e+00, %263 - %273 = fsub float -0.000000e+00, %272 - %274 = fadd float 3.000000e+00, %273 + %272 = fmul float 2.0e+00, %263 + %273 = fsub float -0.0e+00, %272 + %274 = fadd float 3.0e+00, %273 %275 = fmul float %263, %274 %276 = fmul float %263, %275 - %277 = fmul float 2.000000e+00, %266 - %278 = fsub float -0.000000e+00, %277 - %279 = fadd float 3.000000e+00, %278 + %277 = fmul float 2.0e+00, %266 + %278 = fsub float -0.0e+00, %277 + %279 = fadd float 3.0e+00, %278 %280 = fmul float %266, %279 %281 = fmul float %266, %280 %282 = fmul float %26, 0x3F22DFD6A0000000 %283 = fmul float %27, 0x3F22DFD6A0000000 %284 = insertelement <4 x float> undef, float %282, i32 0 %285 = insertelement <4 x float> %284, float %283, i32 1 - %286 = insertelement <4 x float> %285, float 0.000000e+00, i32 2 - %287 = insertelement <4 x float> %286, float 0.000000e+00, i32 3 + %286 = insertelement <4 x float> %285, float 0.0e+00, i32 2 + %287 = insertelement <4 x float> %286, float 0.0e+00, i32 3 %288 = extractelement <4 x float> %287, i32 0 %289 = extractelement <4 x float> %287, i32 1 %290 = insertelement <4 x float> undef, float %288, i32 0 @@ -321,7 +321,7 @@ %299 = fmul float %295, %271 %300 = fmul float %296, %276 %301 = fmul float %297, %281 - %302 = fmul float %298, 0.000000e+00 + %302 = fmul float %298, 0.0e+00 %303 = fmul float %temp68.1, %37 %304 = fmul float %temp68.1, %38 %305 = fmul float %temp68.1, %39 @@ -340,11 +340,11 @@ %318 = insertelement <4 x float> undef, float %313, i32 0 %319 = insertelement <4 x float> %318, float %315, i32 1 %320 = insertelement <4 x float> %319, float %317, i32 2 - %321 = insertelement <4 x float> %320, float 0.000000e+00, i32 3 + %321 = insertelement <4 x float> %320, float 0.0e+00, i32 3 %322 = insertelement <4 x float> undef, float %313, i32 0 %323 = insertelement <4 x float> %322, float %315, i32 1 %324 = insertelement <4 x float> %323, float %317, i32 2 - %325 = insertelement <4 x float> %324, float 0.000000e+00, i32 3 + %325 = insertelement <4 x float> %324, float 0.0e+00, i32 3 %326 = call float @llvm.AMDGPU.dp4(<4 x float> %321, <4 x float> %325) %327 = call float @llvm.AMDGPU.rsq.clamped.f32(float %326) %328 = fmul float %313, %327 @@ -352,32 +352,32 @@ %330 = fmul float %317, %327 %331 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 6) %332 = extractelement <4 x float> %331, i32 0 - %333 = fsub float -0.000000e+00, %332 - %334 = fadd float 1.000000e+00, %333 + %333 = fsub float -0.0e+00, %332 + %334 = fadd float 1.0e+00, %333 %335 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 7) %336 = extractelement <4 x float> %335, i32 0 - %337 = fsub float -0.000000e+00, %336 - %338 = fadd float 1.000000e+00, %337 + %337 = fsub float -0.0e+00, %336 + %338 = fadd float 1.0e+00, %337 %339 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 8) %340 = extractelement <4 x float> %339, i32 0 - %341 = fsub float -0.000000e+00, %340 - %342 = fadd float 1.000000e+00, %341 - %343 = fsub float -0.000000e+00, %334 + %341 = fsub float -0.0e+00, %340 + %342 = fadd float 1.0e+00, %341 + %343 = fsub float -0.0e+00, %334 %344 = fadd float %result.i, %343 - %345 = fsub float -0.000000e+00, %338 + %345 = fsub float -0.0e+00, %338 %346 = fadd float %result.i, %345 %347 = fadd float %346, 0xBFE3333340000000 - %348 = fsub float -0.000000e+00, %result.i - %349 = fsub float -0.000000e+00, %342 + %348 = fsub float -0.0e+00, %result.i + %349 = fsub float -0.0e+00, %342 %350 = fadd float %348, %349 %351 = insertelement <4 x float> undef, float %43, i32 0 %352 = insertelement <4 x float> %351, float %44, i32 1 %353 = insertelement <4 x float> %352, float %45, i32 2 - %354 = insertelement <4 x float> %353, float 0.000000e+00, i32 3 + %354 = insertelement <4 x float> %353, float 0.0e+00, i32 3 %355 = insertelement <4 x float> undef, float %43, i32 0 %356 = insertelement <4 x float> %355, float %44, i32 1 %357 = insertelement <4 x float> %356, float %45, i32 2 - %358 = insertelement <4 x float> %357, float 0.000000e+00, i32 3 + %358 = insertelement <4 x float> %357, float 0.0e+00, i32 3 %359 = call float @llvm.AMDGPU.dp4(<4 x float> %354, <4 x float> %358) %360 = call float @llvm.AMDGPU.rsq.clamped.f32(float %359) %361 = fmul float %45, %360 @@ -386,24 +386,24 @@ %364 = fadd float %363, %362 %365 = fadd float %364, 0xBFEFAE1480000000 %366 = fmul float %365, 0xC023FFFFC0000000 - %367 = call float @llvm.AMDGPU.clamp.f32(float %366, float 0.000000e+00, float 1.000000e+00) - %368 = fsub float -0.000000e+00, %334 + %367 = call float @llvm.AMDGPU.clamp.f32(float %366, float 0.0e+00, float 1.0e+00) + %368 = fsub float -0.0e+00, %334 %369 = fadd float %result.i, %368 %370 = fadd float %369, 0x3FBEB851E0000000 - %371 = fsub float -0.000000e+00, %338 + %371 = fsub float -0.0e+00, %338 %372 = fadd float %result.i, %371 %373 = fadd float %372, 0xBFE0A3D700000000 - %374 = fsub float -0.000000e+00, %result.i - %375 = fsub float -0.000000e+00, %342 + %374 = fsub float -0.0e+00, %result.i + %375 = fsub float -0.0e+00, %342 %376 = fadd float %374, %375 %377 = insertelement <4 x float> undef, float %43, i32 0 %378 = insertelement <4 x float> %377, float %44, i32 1 %379 = insertelement <4 x float> %378, float %45, i32 2 - %380 = insertelement <4 x float> %379, float 0.000000e+00, i32 3 + %380 = insertelement <4 x float> %379, float 0.0e+00, i32 3 %381 = insertelement <4 x float> undef, float %43, i32 0 %382 = insertelement <4 x float> %381, float %44, i32 1 %383 = insertelement <4 x float> %382, float %45, i32 2 - %384 = insertelement <4 x float> %383, float 0.000000e+00, i32 3 + %384 = insertelement <4 x float> %383, float 0.0e+00, i32 3 %385 = call float @llvm.AMDGPU.dp4(<4 x float> %380, <4 x float> %384) %386 = call float @llvm.AMDGPU.rsq.clamped.f32(float %385) %387 = fmul float %45, %386 @@ -412,50 +412,50 @@ %390 = fadd float %389, %388 %391 = fadd float %390, 0xBFEFAE1480000000 %392 = fmul float %391, 0xC0490001A0000000 - %393 = call float @llvm.AMDGPU.clamp.f32(float %392, float 0.000000e+00, float 1.000000e+00) - %394 = fmul float 2.000000e+00, %367 - %395 = fsub float -0.000000e+00, %394 - %396 = fadd float 3.000000e+00, %395 + %393 = call float @llvm.AMDGPU.clamp.f32(float %392, float 0.0e+00, float 1.0e+00) + %394 = fmul float 2.0e+00, %367 + %395 = fsub float -0.0e+00, %394 + %396 = fadd float 3.0e+00, %395 %397 = fmul float %367, %396 %398 = fmul float %367, %397 - %one.sub.a.i169 = fsub float 1.000000e+00, %398 + %one.sub.a.i169 = fsub float 1.0e+00, %398 %one.sub.ac.i170 = fmul float %one.sub.a.i169, %344 %mul.i171 = fmul float %254, %344 %result.i172 = fadd float %mul.i171, %one.sub.ac.i170 - %one.sub.a.i165 = fsub float 1.000000e+00, %398 + %one.sub.a.i165 = fsub float 1.0e+00, %398 %one.sub.ac.i166 = fmul float %one.sub.a.i165, %347 %mul.i167 = fmul float %255, %347 %result.i168 = fadd float %mul.i167, %one.sub.ac.i166 - %one.sub.a.i161 = fsub float 1.000000e+00, %398 + %one.sub.a.i161 = fsub float 1.0e+00, %398 %one.sub.ac.i162 = fmul float %one.sub.a.i161, %350 %mul.i163 = fmul float %256, %350 %result.i164 = fadd float %mul.i163, %one.sub.ac.i162 - %one.sub.a.i157 = fsub float 1.000000e+00, %398 - %one.sub.ac.i158 = fmul float %one.sub.a.i157, 0.000000e+00 - %mul.i159 = fmul float %257, 0.000000e+00 + %one.sub.a.i157 = fsub float 1.0e+00, %398 + %one.sub.ac.i158 = fmul float %one.sub.a.i157, 0.0e+00 + %mul.i159 = fmul float %257, 0.0e+00 %result.i160 = fadd float %mul.i159, %one.sub.ac.i158 - %399 = fmul float 2.000000e+00, %393 - %400 = fsub float -0.000000e+00, %399 - %401 = fadd float 3.000000e+00, %400 + %399 = fmul float 2.0e+00, %393 + %400 = fsub float -0.0e+00, %399 + %401 = fadd float 3.0e+00, %400 %402 = fmul float %393, %401 %403 = fmul float %393, %402 - %one.sub.a.i153 = fsub float 1.000000e+00, %403 + %one.sub.a.i153 = fsub float 1.0e+00, %403 %one.sub.ac.i154 = fmul float %one.sub.a.i153, %370 %mul.i155 = fmul float %254, %370 %result.i156 = fadd float %mul.i155, %one.sub.ac.i154 - %one.sub.a.i149 = fsub float 1.000000e+00, %403 + %one.sub.a.i149 = fsub float 1.0e+00, %403 %one.sub.ac.i150 = fmul float %one.sub.a.i149, %373 %mul.i151 = fmul float %255, %373 %result.i152 = fadd float %mul.i151, %one.sub.ac.i150 - %one.sub.a.i145 = fsub float 1.000000e+00, %403 + %one.sub.a.i145 = fsub float 1.0e+00, %403 %one.sub.ac.i146 = fmul float %one.sub.a.i145, %376 %mul.i147 = fmul float %256, %376 %result.i148 = fadd float %mul.i147, %one.sub.ac.i146 - %one.sub.a.i141 = fsub float 1.000000e+00, %403 + %one.sub.a.i141 = fsub float 1.0e+00, %403 %one.sub.ac.i142 = fmul float %one.sub.a.i141, 0x3FD3333340000000 %mul.i143 = fmul float %257, 0x3FD3333340000000 %result.i144 = fadd float %mul.i143, %one.sub.ac.i142 - %404 = fcmp oge float 2.200000e+03, %179 + %404 = fcmp oge float 2.2e+03, %179 %405 = sext i1 %404 to i32 %406 = bitcast i32 %405 to float %407 = bitcast float %406 to i32 @@ -463,9 +463,9 @@ br i1 %408, label %IF161, label %ENDIF160 LOOP: ; preds = %ENDIF139, %IF137 - %temp88.0 = phi float [ 0.000000e+00, %IF137 ], [ %437, %ENDIF139 ] - %temp92.0 = phi float [ 1.000000e+00, %IF137 ], [ %.temp92.0, %ENDIF139 ] - %temp96.0 = phi float [ 0.000000e+00, %IF137 ], [ %468, %ENDIF139 ] + %temp88.0 = phi float [ 0.0e+00, %IF137 ], [ %437, %ENDIF139 ] + %temp92.0 = phi float [ 1.0e+00, %IF137 ], [ %.temp92.0, %ENDIF139 ] + %temp96.0 = phi float [ 0.0e+00, %IF137 ], [ %468, %ENDIF139 ] %409 = bitcast float %temp96.0 to i32 %410 = icmp sge i32 %409, %137 %411 = sext i1 %410 to i32 @@ -475,15 +475,15 @@ br i1 %414, label %IF140, label %ENDIF139 IF140: ; preds = %LOOP - %415 = fmul float %133, 5.000000e-01 + %415 = fmul float %133, 5.0e-01 %416 = fmul float %129, %temp92.0 %417 = fadd float %416, %22 %418 = fmul float %130, %temp92.0 %419 = fadd float %418, %23 %420 = insertelement <4 x float> undef, float %417, i32 0 %421 = insertelement <4 x float> %420, float %419, i32 1 - %422 = insertelement <4 x float> %421, float 0.000000e+00, i32 2 - %423 = insertelement <4 x float> %422, float 0.000000e+00, i32 3 + %422 = insertelement <4 x float> %421, float 0.0e+00, i32 2 + %423 = insertelement <4 x float> %422, float 0.0e+00, i32 3 %424 = extractelement <4 x float> %423, i32 0 %425 = extractelement <4 x float> %423, i32 1 %426 = insertelement <4 x float> undef, float %424, i32 0 @@ -507,8 +507,8 @@ %441 = fadd float %440, %23 %442 = insertelement <4 x float> undef, float %439, i32 0 %443 = insertelement <4 x float> %442, float %441, i32 1 - %444 = insertelement <4 x float> %443, float 0.000000e+00, i32 2 - %445 = insertelement <4 x float> %444, float 0.000000e+00, i32 3 + %444 = insertelement <4 x float> %443, float 0.0e+00, i32 2 + %445 = insertelement <4 x float> %444, float 0.0e+00, i32 3 %446 = extractelement <4 x float> %445, i32 0 %447 = extractelement <4 x float> %445, i32 1 %448 = insertelement <4 x float> undef, float %446, i32 0 @@ -536,22 +536,22 @@ br label %LOOP IF146: ; preds = %IF140 - %469 = fmul float 2.000000e+00, %415 - %470 = fsub float -0.000000e+00, %469 + %469 = fmul float 2.0e+00, %415 + %470 = fsub float -0.0e+00, %469 %471 = fadd float %temp92.0, %470 br label %ENDIF145 ENDIF145: ; preds = %IF146, %IF140 %temp88.1 = phi float [ %471, %IF146 ], [ %temp92.0, %IF140 ] %472 = fadd float %temp88.1, %415 - %473 = fmul float %415, 5.000000e-01 + %473 = fmul float %415, 5.0e-01 %474 = fmul float %129, %472 %475 = fadd float %474, %22 %476 = fmul float %130, %472 %477 = fadd float %476, %23 %478 = insertelement <4 x float> undef, float %475, i32 0 %479 = insertelement <4 x float> %478, float %477, i32 1 - %480 = insertelement <4 x float> %479, float 0.000000e+00, i32 2 + %480 = insertelement <4 x float> %479, float 0.0e+00, i32 2 %481 = insertelement <4 x float> %480, float %431, i32 3 %482 = extractelement <4 x float> %481, i32 0 %483 = extractelement <4 x float> %481, i32 1 @@ -569,8 +569,8 @@ br i1 %494, label %IF149, label %ENDIF148 IF149: ; preds = %ENDIF145 - %495 = fmul float 2.000000e+00, %473 - %496 = fsub float -0.000000e+00, %495 + %495 = fmul float 2.0e+00, %473 + %496 = fsub float -0.0e+00, %495 %497 = fadd float %472, %496 br label %ENDIF148 @@ -578,14 +578,14 @@ %temp88.2 = phi float [ %497, %IF149 ], [ %472, %ENDIF145 ] %temp92.2 = phi float [ %472, %IF149 ], [ %temp92.0, %ENDIF145 ] %498 = fadd float %temp88.2, %473 - %499 = fmul float %473, 5.000000e-01 + %499 = fmul float %473, 5.0e-01 %500 = fmul float %129, %498 %501 = fadd float %500, %22 %502 = fmul float %130, %498 %503 = fadd float %502, %23 %504 = insertelement <4 x float> undef, float %501, i32 0 %505 = insertelement <4 x float> %504, float %503, i32 1 - %506 = insertelement <4 x float> %505, float 0.000000e+00, i32 2 + %506 = insertelement <4 x float> %505, float 0.0e+00, i32 2 %507 = insertelement <4 x float> %506, float %489, i32 3 %508 = extractelement <4 x float> %507, i32 0 %509 = extractelement <4 x float> %507, i32 1 @@ -603,8 +603,8 @@ br i1 %520, label %IF152, label %ENDIF151 IF152: ; preds = %ENDIF148 - %521 = fmul float 2.000000e+00, %499 - %522 = fsub float -0.000000e+00, %521 + %521 = fmul float 2.0e+00, %499 + %522 = fsub float -0.0e+00, %521 %523 = fadd float %498, %522 br label %ENDIF151 @@ -612,14 +612,14 @@ %temp88.3 = phi float [ %523, %IF152 ], [ %498, %ENDIF148 ] %temp92.3 = phi float [ %498, %IF152 ], [ %temp92.2, %ENDIF148 ] %524 = fadd float %temp88.3, %499 - %525 = fmul float %499, 5.000000e-01 + %525 = fmul float %499, 5.0e-01 %526 = fmul float %129, %524 %527 = fadd float %526, %22 %528 = fmul float %130, %524 %529 = fadd float %528, %23 %530 = insertelement <4 x float> undef, float %527, i32 0 %531 = insertelement <4 x float> %530, float %529, i32 1 - %532 = insertelement <4 x float> %531, float 0.000000e+00, i32 2 + %532 = insertelement <4 x float> %531, float 0.0e+00, i32 2 %533 = insertelement <4 x float> %532, float %515, i32 3 %534 = extractelement <4 x float> %533, i32 0 %535 = extractelement <4 x float> %533, i32 1 @@ -637,8 +637,8 @@ br i1 %546, label %IF155, label %ENDIF154 IF155: ; preds = %ENDIF151 - %547 = fmul float 2.000000e+00, %525 - %548 = fsub float -0.000000e+00, %547 + %547 = fmul float 2.0e+00, %525 + %548 = fsub float -0.0e+00, %547 %549 = fadd float %524, %548 br label %ENDIF154 @@ -652,7 +652,7 @@ %554 = fadd float %553, %23 %555 = insertelement <4 x float> undef, float %552, i32 0 %556 = insertelement <4 x float> %555, float %554, i32 1 - %557 = insertelement <4 x float> %556, float 0.000000e+00, i32 2 + %557 = insertelement <4 x float> %556, float 0.0e+00, i32 2 %558 = insertelement <4 x float> %557, float %541, i32 3 %559 = extractelement <4 x float> %558, i32 0 %560 = extractelement <4 x float> %558, i32 1 @@ -674,7 +674,7 @@ %575 = fadd float %574, %23 %576 = insertelement <4 x float> undef, float %573, i32 0 %577 = insertelement <4 x float> %576, float %575, i32 1 - %578 = insertelement <4 x float> %577, float 0.000000e+00, i32 2 + %578 = insertelement <4 x float> %577, float 0.0e+00, i32 2 %579 = insertelement <4 x float> %578, float %566, i32 3 %580 = extractelement <4 x float> %579, i32 0 %581 = extractelement <4 x float> %579, i32 1 @@ -686,44 +686,44 @@ %587 = extractelement <4 x float> %586, i32 0 %588 = extractelement <4 x float> %586, i32 1 %589 = extractelement <4 x float> %586, i32 2 - %590 = fmul float %587, 2.000000e+00 - %591 = fadd float %590, -1.000000e+00 - %592 = fmul float %588, 2.000000e+00 - %593 = fadd float %592, -1.000000e+00 - %594 = fmul float %589, 2.000000e+00 - %595 = fadd float %594, -1.000000e+00 + %590 = fmul float %587, 2.0e+00 + %591 = fadd float %590, -1.0e+00 + %592 = fmul float %588, 2.0e+00 + %593 = fadd float %592, -1.0e+00 + %594 = fmul float %589, 2.0e+00 + %595 = fadd float %594, -1.0e+00 br label %ENDIF136 IF161: ; preds = %ENDIF136 %596 = fmul float %result.i, 0x3FB99999A0000000 %597 = fcmp uge float 0x3FE4CCCCC0000000, %596 %598 = select i1 %597, float 0x3FE4CCCCC0000000, float %596 - %599 = fcmp uge float %598, 5.000000e-01 - %600 = select i1 %599, float 5.000000e-01, float %598 - %one.sub.a.i137 = fsub float 1.000000e+00, %600 + %599 = fcmp uge float %598, 5.0e-01 + %600 = select i1 %599, float 5.0e-01, float %598 + %one.sub.a.i137 = fsub float 1.0e+00, %600 %one.sub.ac.i138 = fmul float %one.sub.a.i137, %299 %mul.i139 = fmul float %result.i172, %299 %result.i140 = fadd float %mul.i139, %one.sub.ac.i138 - %one.sub.a.i133 = fsub float 1.000000e+00, %600 + %one.sub.a.i133 = fsub float 1.0e+00, %600 %one.sub.ac.i134 = fmul float %one.sub.a.i133, %300 %mul.i135 = fmul float %result.i168, %300 %result.i136 = fadd float %mul.i135, %one.sub.ac.i134 - %one.sub.a.i129 = fsub float 1.000000e+00, %600 + %one.sub.a.i129 = fsub float 1.0e+00, %600 %one.sub.ac.i130 = fmul float %one.sub.a.i129, %301 %mul.i131 = fmul float %result.i164, %301 %result.i132 = fadd float %mul.i131, %one.sub.ac.i130 - %one.sub.a.i125 = fsub float 1.000000e+00, %600 + %one.sub.a.i125 = fsub float 1.0e+00, %600 %one.sub.ac.i126 = fmul float %one.sub.a.i125, %302 %mul.i127 = fmul float %result.i160, %302 %result.i128 = fadd float %mul.i127, %one.sub.ac.i126 %601 = insertelement <4 x float> undef, float %328, i32 0 %602 = insertelement <4 x float> %601, float %329, i32 1 %603 = insertelement <4 x float> %602, float %330, i32 2 - %604 = insertelement <4 x float> %603, float 0.000000e+00, i32 3 + %604 = insertelement <4 x float> %603, float 0.0e+00, i32 3 %605 = insertelement <4 x float> undef, float %63, i32 0 %606 = insertelement <4 x float> %605, float %65, i32 1 %607 = insertelement <4 x float> %606, float %67, i32 2 - %608 = insertelement <4 x float> %607, float 0.000000e+00, i32 3 + %608 = insertelement <4 x float> %607, float 0.0e+00, i32 3 %609 = call float @llvm.AMDGPU.dp4(<4 x float> %604, <4 x float> %608) %610 = fcmp uge float 0x3FE6666660000000, %609 %611 = select i1 %610, float 0x3FE6666660000000, float %609 @@ -733,11 +733,11 @@ %615 = insertelement <4 x float> undef, float %34, i32 0 %616 = insertelement <4 x float> %615, float %35, i32 1 %617 = insertelement <4 x float> %616, float %36, i32 2 - %618 = insertelement <4 x float> %617, float 0.000000e+00, i32 3 + %618 = insertelement <4 x float> %617, float 0.0e+00, i32 3 %619 = insertelement <4 x float> undef, float %63, i32 0 %620 = insertelement <4 x float> %619, float %65, i32 1 %621 = insertelement <4 x float> %620, float %67, i32 2 - %622 = insertelement <4 x float> %621, float 0.000000e+00, i32 3 + %622 = insertelement <4 x float> %621, float 0.0e+00, i32 3 %623 = call float @llvm.AMDGPU.dp4(<4 x float> %618, <4 x float> %622) %624 = fcmp uge float 0x3FECCCCCC0000000, %623 %625 = select i1 %624, float 0x3FECCCCCC0000000, float %623 @@ -752,12 +752,12 @@ %temp86.0 = phi float [ %result.i132, %IF161 ], [ %256, %ENDIF136 ] %temp87.0 = phi float [ %result.i128, %IF161 ], [ %257, %ENDIF136 ] %temp92.6 = phi float [ %626, %IF161 ], [ %406, %ENDIF136 ] - %temp93.0 = phi float [ %627, %IF161 ], [ 0.000000e+00, %ENDIF136 ] - %temp94.0 = phi float [ %628, %IF161 ], [ 0.000000e+00, %ENDIF136 ] - %629 = fcmp olt float 2.200000e+03, %179 + %temp93.0 = phi float [ %627, %IF161 ], [ 0.0e+00, %ENDIF136 ] + %temp94.0 = phi float [ %628, %IF161 ], [ 0.0e+00, %ENDIF136 ] + %629 = fcmp olt float 2.2e+03, %179 %630 = sext i1 %629 to i32 %631 = bitcast i32 %630 to float - %632 = fcmp olt float %179, 2.300000e+03 + %632 = fcmp olt float %179, 2.3e+03 %633 = sext i1 %632 to i32 %634 = bitcast i32 %633 to float %635 = bitcast float %631 to i32 @@ -769,35 +769,35 @@ br i1 %640, label %IF164, label %ENDIF163 IF164: ; preds = %ENDIF160 - %641 = fmul float %result.i, 5.000000e-01 + %641 = fmul float %result.i, 5.0e-01 %642 = fcmp uge float 0x3FE4CCCCC0000000, %641 %643 = select i1 %642, float 0x3FE4CCCCC0000000, float %641 %644 = fcmp uge float %643, 0x3FD6666660000000 %645 = select i1 %644, float 0x3FD6666660000000, float %643 - %one.sub.a.i121 = fsub float 1.000000e+00, %645 + %one.sub.a.i121 = fsub float 1.0e+00, %645 %one.sub.ac.i122 = fmul float %one.sub.a.i121, %299 %mul.i123 = fmul float %result.i172, %299 %result.i124 = fadd float %mul.i123, %one.sub.ac.i122 - %one.sub.a.i117 = fsub float 1.000000e+00, %645 + %one.sub.a.i117 = fsub float 1.0e+00, %645 %one.sub.ac.i118 = fmul float %one.sub.a.i117, %300 %mul.i119 = fmul float %result.i168, %300 %result.i120 = fadd float %mul.i119, %one.sub.ac.i118 - %one.sub.a.i113 = fsub float 1.000000e+00, %645 + %one.sub.a.i113 = fsub float 1.0e+00, %645 %one.sub.ac.i114 = fmul float %one.sub.a.i113, %301 %mul.i115 = fmul float %result.i164, %301 %result.i116 = fadd float %mul.i115, %one.sub.ac.i114 - %one.sub.a.i109 = fsub float 1.000000e+00, %645 + %one.sub.a.i109 = fsub float 1.0e+00, %645 %one.sub.ac.i110 = fmul float %one.sub.a.i109, %302 %mul.i111 = fmul float %result.i160, %302 %result.i112 = fadd float %mul.i111, %one.sub.ac.i110 %646 = insertelement <4 x float> undef, float %328, i32 0 %647 = insertelement <4 x float> %646, float %329, i32 1 %648 = insertelement <4 x float> %647, float %330, i32 2 - %649 = insertelement <4 x float> %648, float 0.000000e+00, i32 3 + %649 = insertelement <4 x float> %648, float 0.0e+00, i32 3 %650 = insertelement <4 x float> undef, float %63, i32 0 %651 = insertelement <4 x float> %650, float %65, i32 1 %652 = insertelement <4 x float> %651, float %67, i32 2 - %653 = insertelement <4 x float> %652, float 0.000000e+00, i32 3 + %653 = insertelement <4 x float> %652, float 0.0e+00, i32 3 %654 = call float @llvm.AMDGPU.dp4(<4 x float> %649, <4 x float> %653) %655 = fcmp uge float 0x3FE6666660000000, %654 %656 = select i1 %655, float 0x3FE6666660000000, float %654 @@ -807,11 +807,11 @@ %660 = insertelement <4 x float> undef, float %34, i32 0 %661 = insertelement <4 x float> %660, float %35, i32 1 %662 = insertelement <4 x float> %661, float %36, i32 2 - %663 = insertelement <4 x float> %662, float 0.000000e+00, i32 3 + %663 = insertelement <4 x float> %662, float 0.0e+00, i32 3 %664 = insertelement <4 x float> undef, float %63, i32 0 %665 = insertelement <4 x float> %664, float %65, i32 1 %666 = insertelement <4 x float> %665, float %67, i32 2 - %667 = insertelement <4 x float> %666, float 0.000000e+00, i32 3 + %667 = insertelement <4 x float> %666, float 0.0e+00, i32 3 %668 = call float @llvm.AMDGPU.dp4(<4 x float> %663, <4 x float> %667) %669 = fcmp uge float 0x3FECCCCCC0000000, %668 %670 = select i1 %669, float 0x3FECCCCCC0000000, float %668 @@ -828,10 +828,10 @@ %temp92.7 = phi float [ %671, %IF164 ], [ %temp92.6, %ENDIF160 ] %temp93.1 = phi float [ %672, %IF164 ], [ %temp93.0, %ENDIF160 ] %temp94.1 = phi float [ %673, %IF164 ], [ %temp94.0, %ENDIF160 ] - %674 = fcmp oge float %179, 2.300000e+03 + %674 = fcmp oge float %179, 2.3e+03 %675 = sext i1 %674 to i32 %676 = bitcast i32 %675 to float - %677 = fcmp olt float %179, 2.480000e+03 + %677 = fcmp olt float %179, 2.48e+03 %678 = sext i1 %677 to i32 %679 = bitcast i32 %678 to float %680 = bitcast float %676 to i32 @@ -843,35 +843,35 @@ br i1 %685, label %IF167, label %ENDIF166 IF167: ; preds = %ENDIF163 - %686 = fmul float %result.i, 5.000000e-01 + %686 = fmul float %result.i, 5.0e-01 %687 = fcmp uge float 0x3FE4CCCCC0000000, %686 %688 = select i1 %687, float 0x3FE4CCCCC0000000, float %686 %689 = fcmp uge float %688, 0x3FD3333340000000 %690 = select i1 %689, float 0x3FD3333340000000, float %688 - %one.sub.a.i105 = fsub float 1.000000e+00, %690 + %one.sub.a.i105 = fsub float 1.0e+00, %690 %one.sub.ac.i106 = fmul float %one.sub.a.i105, %299 %mul.i107 = fmul float %result.i156, %299 %result.i108 = fadd float %mul.i107, %one.sub.ac.i106 - %one.sub.a.i101 = fsub float 1.000000e+00, %690 + %one.sub.a.i101 = fsub float 1.0e+00, %690 %one.sub.ac.i102 = fmul float %one.sub.a.i101, %300 %mul.i103 = fmul float %result.i152, %300 %result.i104 = fadd float %mul.i103, %one.sub.ac.i102 - %one.sub.a.i97 = fsub float 1.000000e+00, %690 + %one.sub.a.i97 = fsub float 1.0e+00, %690 %one.sub.ac.i98 = fmul float %one.sub.a.i97, %301 %mul.i99 = fmul float %result.i148, %301 %result.i100 = fadd float %mul.i99, %one.sub.ac.i98 - %one.sub.a.i93 = fsub float 1.000000e+00, %690 + %one.sub.a.i93 = fsub float 1.0e+00, %690 %one.sub.ac.i94 = fmul float %one.sub.a.i93, %302 %mul.i95 = fmul float %result.i144, %302 %result.i96 = fadd float %mul.i95, %one.sub.ac.i94 %691 = insertelement <4 x float> undef, float %328, i32 0 %692 = insertelement <4 x float> %691, float %329, i32 1 %693 = insertelement <4 x float> %692, float %330, i32 2 - %694 = insertelement <4 x float> %693, float 0.000000e+00, i32 3 + %694 = insertelement <4 x float> %693, float 0.0e+00, i32 3 %695 = insertelement <4 x float> undef, float %63, i32 0 %696 = insertelement <4 x float> %695, float %65, i32 1 %697 = insertelement <4 x float> %696, float %67, i32 2 - %698 = insertelement <4 x float> %697, float 0.000000e+00, i32 3 + %698 = insertelement <4 x float> %697, float 0.0e+00, i32 3 %699 = call float @llvm.AMDGPU.dp4(<4 x float> %694, <4 x float> %698) %700 = fcmp uge float 0x3FEB333340000000, %699 %701 = select i1 %700, float 0x3FEB333340000000, float %699 @@ -881,11 +881,11 @@ %705 = insertelement <4 x float> undef, float %34, i32 0 %706 = insertelement <4 x float> %705, float %35, i32 1 %707 = insertelement <4 x float> %706, float %36, i32 2 - %708 = insertelement <4 x float> %707, float 0.000000e+00, i32 3 + %708 = insertelement <4 x float> %707, float 0.0e+00, i32 3 %709 = insertelement <4 x float> undef, float %63, i32 0 %710 = insertelement <4 x float> %709, float %65, i32 1 %711 = insertelement <4 x float> %710, float %67, i32 2 - %712 = insertelement <4 x float> %711, float 0.000000e+00, i32 3 + %712 = insertelement <4 x float> %711, float 0.0e+00, i32 3 %713 = call float @llvm.AMDGPU.dp4(<4 x float> %708, <4 x float> %712) %714 = fcmp uge float 0x3FECCCCCC0000000, %713 %715 = select i1 %714, float 0x3FECCCCCC0000000, float %713 @@ -902,10 +902,10 @@ %temp92.8 = phi float [ %716, %IF167 ], [ %temp92.7, %ENDIF163 ] %temp93.2 = phi float [ %717, %IF167 ], [ %temp93.1, %ENDIF163 ] %temp94.2 = phi float [ %718, %IF167 ], [ %temp94.1, %ENDIF163 ] - %719 = fcmp oge float %179, 2.480000e+03 + %719 = fcmp oge float %179, 2.48e+03 %720 = sext i1 %719 to i32 %721 = bitcast i32 %720 to float - %722 = fcmp olt float %179, 2.530000e+03 + %722 = fcmp olt float %179, 2.53e+03 %723 = sext i1 %722 to i32 %724 = bitcast i32 %723 to float %725 = bitcast float %721 to i32 @@ -917,35 +917,35 @@ br i1 %730, label %IF170, label %ENDIF169 IF170: ; preds = %ENDIF166 - %731 = fmul float %result.i, 5.000000e-01 + %731 = fmul float %result.i, 5.0e-01 %732 = fcmp uge float 0x3FE4CCCCC0000000, %731 %733 = select i1 %732, float 0x3FE4CCCCC0000000, float %731 %734 = fcmp uge float %733, 0x3FC99999A0000000 %735 = select i1 %734, float 0x3FC99999A0000000, float %733 - %one.sub.a.i89 = fsub float 1.000000e+00, %735 + %one.sub.a.i89 = fsub float 1.0e+00, %735 %one.sub.ac.i90 = fmul float %one.sub.a.i89, %299 %mul.i91 = fmul float %result.i156, %299 %result.i92 = fadd float %mul.i91, %one.sub.ac.i90 - %one.sub.a.i85 = fsub float 1.000000e+00, %735 + %one.sub.a.i85 = fsub float 1.0e+00, %735 %one.sub.ac.i86 = fmul float %one.sub.a.i85, %300 %mul.i87 = fmul float %result.i152, %300 %result.i88 = fadd float %mul.i87, %one.sub.ac.i86 - %one.sub.a.i81 = fsub float 1.000000e+00, %735 + %one.sub.a.i81 = fsub float 1.0e+00, %735 %one.sub.ac.i82 = fmul float %one.sub.a.i81, %301 %mul.i83 = fmul float %result.i148, %301 %result.i84 = fadd float %mul.i83, %one.sub.ac.i82 - %one.sub.a.i77 = fsub float 1.000000e+00, %735 + %one.sub.a.i77 = fsub float 1.0e+00, %735 %one.sub.ac.i78 = fmul float %one.sub.a.i77, %302 %mul.i79 = fmul float %result.i144, %302 %result.i80 = fadd float %mul.i79, %one.sub.ac.i78 %736 = insertelement <4 x float> undef, float %328, i32 0 %737 = insertelement <4 x float> %736, float %329, i32 1 %738 = insertelement <4 x float> %737, float %330, i32 2 - %739 = insertelement <4 x float> %738, float 0.000000e+00, i32 3 + %739 = insertelement <4 x float> %738, float 0.0e+00, i32 3 %740 = insertelement <4 x float> undef, float %63, i32 0 %741 = insertelement <4 x float> %740, float %65, i32 1 %742 = insertelement <4 x float> %741, float %67, i32 2 - %743 = insertelement <4 x float> %742, float 0.000000e+00, i32 3 + %743 = insertelement <4 x float> %742, float 0.0e+00, i32 3 %744 = call float @llvm.AMDGPU.dp4(<4 x float> %739, <4 x float> %743) %745 = fcmp uge float 0x3FEB333340000000, %744 %746 = select i1 %745, float 0x3FEB333340000000, float %744 @@ -955,11 +955,11 @@ %750 = insertelement <4 x float> undef, float %34, i32 0 %751 = insertelement <4 x float> %750, float %35, i32 1 %752 = insertelement <4 x float> %751, float %36, i32 2 - %753 = insertelement <4 x float> %752, float 0.000000e+00, i32 3 + %753 = insertelement <4 x float> %752, float 0.0e+00, i32 3 %754 = insertelement <4 x float> undef, float %63, i32 0 %755 = insertelement <4 x float> %754, float %65, i32 1 %756 = insertelement <4 x float> %755, float %67, i32 2 - %757 = insertelement <4 x float> %756, float 0.000000e+00, i32 3 + %757 = insertelement <4 x float> %756, float 0.0e+00, i32 3 %758 = call float @llvm.AMDGPU.dp4(<4 x float> %753, <4 x float> %757) %759 = fcmp uge float 0x3FECCCCCC0000000, %758 %760 = select i1 %759, float 0x3FECCCCCC0000000, float %758 @@ -976,10 +976,10 @@ %temp92.9 = phi float [ %761, %IF170 ], [ %temp92.8, %ENDIF166 ] %temp93.3 = phi float [ %762, %IF170 ], [ %temp93.2, %ENDIF166 ] %temp94.3 = phi float [ %763, %IF170 ], [ %temp94.2, %ENDIF166 ] - %764 = fcmp oge float %179, 2.530000e+03 + %764 = fcmp oge float %179, 2.53e+03 %765 = sext i1 %764 to i32 %766 = bitcast i32 %765 to float - %767 = fcmp olt float %179, 2.670000e+03 + %767 = fcmp olt float %179, 2.67e+03 %768 = sext i1 %767 to i32 %769 = bitcast i32 %768 to float %770 = bitcast float %766 to i32 @@ -991,35 +991,35 @@ br i1 %775, label %IF173, label %ENDIF172 IF173: ; preds = %ENDIF169 - %776 = fmul float %result.i, 5.000000e-01 + %776 = fmul float %result.i, 5.0e-01 %777 = fcmp uge float 0x3FE4CCCCC0000000, %776 %778 = select i1 %777, float 0x3FE4CCCCC0000000, float %776 %779 = fcmp uge float %778, 0x3FB99999A0000000 %780 = select i1 %779, float 0x3FB99999A0000000, float %778 - %one.sub.a.i73 = fsub float 1.000000e+00, %780 + %one.sub.a.i73 = fsub float 1.0e+00, %780 %one.sub.ac.i74 = fmul float %one.sub.a.i73, %299 %mul.i75 = fmul float %result.i172, %299 %result.i76 = fadd float %mul.i75, %one.sub.ac.i74 - %one.sub.a.i69 = fsub float 1.000000e+00, %780 + %one.sub.a.i69 = fsub float 1.0e+00, %780 %one.sub.ac.i70 = fmul float %one.sub.a.i69, %300 %mul.i71 = fmul float %result.i168, %300 %result.i72 = fadd float %mul.i71, %one.sub.ac.i70 - %one.sub.a.i65 = fsub float 1.000000e+00, %780 + %one.sub.a.i65 = fsub float 1.0e+00, %780 %one.sub.ac.i66 = fmul float %one.sub.a.i65, %301 %mul.i67 = fmul float %result.i164, %301 %result.i68 = fadd float %mul.i67, %one.sub.ac.i66 - %one.sub.a.i61 = fsub float 1.000000e+00, %780 + %one.sub.a.i61 = fsub float 1.0e+00, %780 %one.sub.ac.i62 = fmul float %one.sub.a.i61, %302 %mul.i63 = fmul float %result.i160, %302 %result.i64 = fadd float %mul.i63, %one.sub.ac.i62 %781 = insertelement <4 x float> undef, float %328, i32 0 %782 = insertelement <4 x float> %781, float %329, i32 1 %783 = insertelement <4 x float> %782, float %330, i32 2 - %784 = insertelement <4 x float> %783, float 0.000000e+00, i32 3 + %784 = insertelement <4 x float> %783, float 0.0e+00, i32 3 %785 = insertelement <4 x float> undef, float %63, i32 0 %786 = insertelement <4 x float> %785, float %65, i32 1 %787 = insertelement <4 x float> %786, float %67, i32 2 - %788 = insertelement <4 x float> %787, float 0.000000e+00, i32 3 + %788 = insertelement <4 x float> %787, float 0.0e+00, i32 3 %789 = call float @llvm.AMDGPU.dp4(<4 x float> %784, <4 x float> %788) %790 = fcmp uge float 0x3FEB333340000000, %789 %791 = select i1 %790, float 0x3FEB333340000000, float %789 @@ -1029,11 +1029,11 @@ %795 = insertelement <4 x float> undef, float %34, i32 0 %796 = insertelement <4 x float> %795, float %35, i32 1 %797 = insertelement <4 x float> %796, float %36, i32 2 - %798 = insertelement <4 x float> %797, float 0.000000e+00, i32 3 + %798 = insertelement <4 x float> %797, float 0.0e+00, i32 3 %799 = insertelement <4 x float> undef, float %63, i32 0 %800 = insertelement <4 x float> %799, float %65, i32 1 %801 = insertelement <4 x float> %800, float %67, i32 2 - %802 = insertelement <4 x float> %801, float 0.000000e+00, i32 3 + %802 = insertelement <4 x float> %801, float 0.0e+00, i32 3 %803 = call float @llvm.AMDGPU.dp4(<4 x float> %798, <4 x float> %802) %804 = fcmp uge float 0x3FECCCCCC0000000, %803 %805 = select i1 %804, float 0x3FECCCCCC0000000, float %803 @@ -1050,7 +1050,7 @@ %temp92.10 = phi float [ %806, %IF173 ], [ %temp92.9, %ENDIF169 ] %temp93.4 = phi float [ %807, %IF173 ], [ %temp93.3, %ENDIF169 ] %temp94.4 = phi float [ %808, %IF173 ], [ %temp94.3, %ENDIF169 ] - %809 = fcmp oge float %179, 2.670000e+03 + %809 = fcmp oge float %179, 2.67e+03 %810 = sext i1 %809 to i32 %811 = bitcast i32 %810 to float %812 = bitcast float %811 to i32 @@ -1059,34 +1059,34 @@ IF176: ; preds = %ENDIF172 %814 = fmul float %result.i, 0x3FB99999A0000000 - %815 = fcmp uge float 0.000000e+00, %814 - %816 = select i1 %815, float 0.000000e+00, float %814 + %815 = fcmp uge float 0.0e+00, %814 + %816 = select i1 %815, float 0.0e+00, float %814 %817 = fcmp uge float %816, 0x3FD99999A0000000 %818 = select i1 %817, float 0x3FD99999A0000000, float %816 - %one.sub.a.i57 = fsub float 1.000000e+00, %818 + %one.sub.a.i57 = fsub float 1.0e+00, %818 %one.sub.ac.i58 = fmul float %one.sub.a.i57, %299 %mul.i59 = fmul float %result.i172, %299 %result.i60 = fadd float %mul.i59, %one.sub.ac.i58 - %one.sub.a.i53 = fsub float 1.000000e+00, %818 + %one.sub.a.i53 = fsub float 1.0e+00, %818 %one.sub.ac.i54 = fmul float %one.sub.a.i53, %300 %mul.i55 = fmul float %result.i168, %300 %result.i56 = fadd float %mul.i55, %one.sub.ac.i54 - %one.sub.a.i49 = fsub float 1.000000e+00, %818 + %one.sub.a.i49 = fsub float 1.0e+00, %818 %one.sub.ac.i50 = fmul float %one.sub.a.i49, %301 %mul.i51 = fmul float %result.i164, %301 %result.i52 = fadd float %mul.i51, %one.sub.ac.i50 - %one.sub.a.i45 = fsub float 1.000000e+00, %818 + %one.sub.a.i45 = fsub float 1.0e+00, %818 %one.sub.ac.i46 = fmul float %one.sub.a.i45, %302 %mul.i47 = fmul float %result.i160, %302 %result.i48 = fadd float %mul.i47, %one.sub.ac.i46 %819 = insertelement <4 x float> undef, float %328, i32 0 %820 = insertelement <4 x float> %819, float %329, i32 1 %821 = insertelement <4 x float> %820, float %330, i32 2 - %822 = insertelement <4 x float> %821, float 0.000000e+00, i32 3 + %822 = insertelement <4 x float> %821, float 0.0e+00, i32 3 %823 = insertelement <4 x float> undef, float %63, i32 0 %824 = insertelement <4 x float> %823, float %65, i32 1 %825 = insertelement <4 x float> %824, float %67, i32 2 - %826 = insertelement <4 x float> %825, float 0.000000e+00, i32 3 + %826 = insertelement <4 x float> %825, float 0.0e+00, i32 3 %827 = call float @llvm.AMDGPU.dp4(<4 x float> %822, <4 x float> %826) %828 = fcmp uge float 0x3FEB333340000000, %827 %829 = select i1 %828, float 0x3FEB333340000000, float %827 @@ -1096,11 +1096,11 @@ %833 = insertelement <4 x float> undef, float %34, i32 0 %834 = insertelement <4 x float> %833, float %35, i32 1 %835 = insertelement <4 x float> %834, float %36, i32 2 - %836 = insertelement <4 x float> %835, float 0.000000e+00, i32 3 + %836 = insertelement <4 x float> %835, float 0.0e+00, i32 3 %837 = insertelement <4 x float> undef, float %63, i32 0 %838 = insertelement <4 x float> %837, float %65, i32 1 %839 = insertelement <4 x float> %838, float %67, i32 2 - %840 = insertelement <4 x float> %839, float 0.000000e+00, i32 3 + %840 = insertelement <4 x float> %839, float 0.0e+00, i32 3 %841 = call float @llvm.AMDGPU.dp4(<4 x float> %836, <4 x float> %840) %842 = fcmp uge float 0x3FECCCCCC0000000, %841 %843 = select i1 %842, float 0x3FECCCCCC0000000, float %841 @@ -1127,17 +1127,17 @@ br i1 %853, label %IF179, label %ENDIF178 IF179: ; preds = %ENDIF175 - %854 = fadd float %result.i, 1.000000e+00 - %855 = fadd float %result.i, 1.000000e+00 - %856 = fadd float %result.i, 1.000000e+00 + %854 = fadd float %result.i, 1.0e+00 + %855 = fadd float %result.i, 1.0e+00 + %856 = fadd float %result.i, 1.0e+00 %857 = insertelement <4 x float> undef, float %43, i32 0 %858 = insertelement <4 x float> %857, float %44, i32 1 %859 = insertelement <4 x float> %858, float %45, i32 2 - %860 = insertelement <4 x float> %859, float 0.000000e+00, i32 3 + %860 = insertelement <4 x float> %859, float 0.0e+00, i32 3 %861 = insertelement <4 x float> undef, float %43, i32 0 %862 = insertelement <4 x float> %861, float %44, i32 1 %863 = insertelement <4 x float> %862, float %45, i32 2 - %864 = insertelement <4 x float> %863, float 0.000000e+00, i32 3 + %864 = insertelement <4 x float> %863, float 0.0e+00, i32 3 %865 = call float @llvm.AMDGPU.dp4(<4 x float> %860, <4 x float> %864) %866 = call float @llvm.AMDGPU.rsq.clamped.f32(float %865) %867 = fmul float %45, %866 @@ -1146,57 +1146,57 @@ %870 = fadd float %869, %868 %871 = fadd float %870, 0xBFEFAE1480000000 %872 = fmul float %871, 0xC043FFFE20000000 - %873 = call float @llvm.AMDGPU.clamp.f32(float %872, float 0.000000e+00, float 1.000000e+00) - %874 = fmul float 2.000000e+00, %873 - %875 = fsub float -0.000000e+00, %874 - %876 = fadd float 3.000000e+00, %875 + %873 = call float @llvm.AMDGPU.clamp.f32(float %872, float 0.0e+00, float 1.0e+00) + %874 = fmul float 2.0e+00, %873 + %875 = fsub float -0.0e+00, %874 + %876 = fadd float 3.0e+00, %875 %877 = fmul float %873, %876 %878 = fmul float %873, %877 - %one.sub.a.i41 = fsub float 1.000000e+00, %878 + %one.sub.a.i41 = fsub float 1.0e+00, %878 %one.sub.ac.i42 = fmul float %one.sub.a.i41, %854 %mul.i43 = fmul float %temp84.5, %854 %result.i44 = fadd float %mul.i43, %one.sub.ac.i42 - %one.sub.a.i37 = fsub float 1.000000e+00, %878 + %one.sub.a.i37 = fsub float 1.0e+00, %878 %one.sub.ac.i38 = fmul float %one.sub.a.i37, %855 %mul.i39 = fmul float %temp85.5, %855 %result.i40 = fadd float %mul.i39, %one.sub.ac.i38 - %one.sub.a.i33 = fsub float 1.000000e+00, %878 + %one.sub.a.i33 = fsub float 1.0e+00, %878 %one.sub.ac.i34 = fmul float %one.sub.a.i33, %856 %mul.i35 = fmul float %temp86.5, %856 %result.i36 = fadd float %mul.i35, %one.sub.ac.i34 - %one.sub.a.i29 = fsub float 1.000000e+00, %878 - %one.sub.ac.i30 = fmul float %one.sub.a.i29, 0.000000e+00 - %mul.i31 = fmul float %temp87.5, 0.000000e+00 + %one.sub.a.i29 = fsub float 1.0e+00, %878 + %one.sub.ac.i30 = fmul float %one.sub.a.i29, 0.0e+00 + %mul.i31 = fmul float %temp87.5, 0.0e+00 %result.i32 = fadd float %mul.i31, %one.sub.ac.i30 - %879 = fmul float %result.i, 5.000000e-01 + %879 = fmul float %result.i, 5.0e-01 %880 = fcmp uge float 0x3FE4CCCCC0000000, %879 %881 = select i1 %880, float 0x3FE4CCCCC0000000, float %879 %882 = fcmp uge float %881, 0x3FE3333340000000 %883 = select i1 %882, float 0x3FE3333340000000, float %881 - %one.sub.a.i25 = fsub float 1.000000e+00, %883 + %one.sub.a.i25 = fsub float 1.0e+00, %883 %one.sub.ac.i26 = fmul float %one.sub.a.i25, %temp84.5 %mul.i27 = fmul float %result.i44, %temp84.5 %result.i28 = fadd float %mul.i27, %one.sub.ac.i26 - %one.sub.a.i21 = fsub float 1.000000e+00, %883 + %one.sub.a.i21 = fsub float 1.0e+00, %883 %one.sub.ac.i22 = fmul float %one.sub.a.i21, %temp85.5 %mul.i23 = fmul float %result.i40, %temp85.5 %result.i24 = fadd float %mul.i23, %one.sub.ac.i22 - %one.sub.a.i17 = fsub float 1.000000e+00, %883 + %one.sub.a.i17 = fsub float 1.0e+00, %883 %one.sub.ac.i18 = fmul float %one.sub.a.i17, %temp86.5 %mul.i19 = fmul float %result.i36, %temp86.5 %result.i20 = fadd float %mul.i19, %one.sub.ac.i18 - %one.sub.a.i13 = fsub float 1.000000e+00, %883 + %one.sub.a.i13 = fsub float 1.0e+00, %883 %one.sub.ac.i14 = fmul float %one.sub.a.i13, %temp87.5 %mul.i15 = fmul float %result.i32, %temp87.5 %result.i16 = fadd float %mul.i15, %one.sub.ac.i14 %884 = insertelement <4 x float> undef, float %328, i32 0 %885 = insertelement <4 x float> %884, float %329, i32 1 %886 = insertelement <4 x float> %885, float %330, i32 2 - %887 = insertelement <4 x float> %886, float 0.000000e+00, i32 3 + %887 = insertelement <4 x float> %886, float 0.0e+00, i32 3 %888 = insertelement <4 x float> undef, float %63, i32 0 %889 = insertelement <4 x float> %888, float %65, i32 1 %890 = insertelement <4 x float> %889, float %67, i32 2 - %891 = insertelement <4 x float> %890, float 0.000000e+00, i32 3 + %891 = insertelement <4 x float> %890, float 0.0e+00, i32 3 %892 = call float @llvm.AMDGPU.dp4(<4 x float> %887, <4 x float> %891) %893 = fcmp uge float 0x3FE99999A0000000, %892 %894 = select i1 %893, float 0x3FE99999A0000000, float %892 @@ -1206,11 +1206,11 @@ %898 = insertelement <4 x float> undef, float %34, i32 0 %899 = insertelement <4 x float> %898, float %35, i32 1 %900 = insertelement <4 x float> %899, float %36, i32 2 - %901 = insertelement <4 x float> %900, float 0.000000e+00, i32 3 + %901 = insertelement <4 x float> %900, float 0.0e+00, i32 3 %902 = insertelement <4 x float> undef, float %63, i32 0 %903 = insertelement <4 x float> %902, float %65, i32 1 %904 = insertelement <4 x float> %903, float %67, i32 2 - %905 = insertelement <4 x float> %904, float 0.000000e+00, i32 3 + %905 = insertelement <4 x float> %904, float 0.0e+00, i32 3 %906 = call float @llvm.AMDGPU.dp4(<4 x float> %901, <4 x float> %905) %907 = fcmp uge float 0x3FECCCCCC0000000, %906 %908 = select i1 %907, float 0x3FECCCCCC0000000, float %906 @@ -1230,42 +1230,42 @@ %912 = fmul float %55, %temp92.12 %913 = fmul float %57, %temp93.6 %914 = fmul float %59, %temp94.6 - %915 = fmul float %61, 0.000000e+00 + %915 = fmul float %61, 0.0e+00 %916 = fmul float %temp84.6, %912 %917 = fmul float %temp85.6, %913 %918 = fmul float %temp86.6, %914 %919 = fmul float %temp87.6, %915 - %920 = fmul float %2, -2.000000e+00 - %921 = fadd float %920, 1.000000e+00 + %920 = fmul float %2, -2.0e+00 + %921 = fadd float %920, 1.0e+00 %922 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 23) %923 = extractelement <4 x float> %922, i32 2 - %924 = fsub float -0.000000e+00, %923 + %924 = fsub float -0.0e+00, %923 %925 = fadd float %921, %924 - %926 = fdiv float 1.000000e+00, %925 + %926 = fdiv float 1.0e+00, %925 %927 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 24) %928 = extractelement <4 x float> %927, i32 2 %929 = fmul float %928, %926 - %930 = fsub float -0.000000e+00, %53 + %930 = fsub float -0.0e+00, %53 %931 = fmul float %930, %53 %932 = fmul float %931, %929 %933 = fmul float %932, %929 %934 = fmul float %933, 0x3FF7154760000000 %935 = call float @llvm.exp2.f32(float %934) - %936 = fcmp oeq float %53, 1.000000e+00 + %936 = fcmp oeq float %53, 1.0e+00 %937 = sext i1 %936 to i32 %938 = bitcast i32 %937 to float %939 = bitcast float %938 to i32 %940 = icmp ne i32 %939, 0 - %.184 = select i1 %940, float 1.000000e+00, float %935 - %one.sub.a.i9 = fsub float 1.000000e+00, %.184 + %.184 = select i1 %940, float 1.0e+00, float %935 + %one.sub.a.i9 = fsub float 1.0e+00, %.184 %one.sub.ac.i10 = fmul float %one.sub.a.i9, %47 %mul.i11 = fmul float %916, %47 %result.i12 = fadd float %mul.i11, %one.sub.ac.i10 - %one.sub.a.i5 = fsub float 1.000000e+00, %.184 + %one.sub.a.i5 = fsub float 1.0e+00, %.184 %one.sub.ac.i6 = fmul float %one.sub.a.i5, %49 %mul.i7 = fmul float %917, %49 %result.i8 = fadd float %mul.i7, %one.sub.ac.i6 - %one.sub.a.i1 = fsub float 1.000000e+00, %.184 + %one.sub.a.i1 = fsub float 1.0e+00, %.184 %one.sub.ac.i2 = fmul float %one.sub.a.i1, %51 %mul.i3 = fmul float %918, %51 %result.i4 = fadd float %mul.i3, %one.sub.ac.i2 Index: test/CodeGen/AMDGPU/commute-shifts.ll =================================================================== --- test/CodeGen/AMDGPU/commute-shifts.ll +++ test/CodeGen/AMDGPU/commute-shifts.ll @@ -14,7 +14,7 @@ %tmp4 = shl i32 1, %tmp3 %tmp5 = and i32 %tmp2, %tmp4 %tmp6 = icmp eq i32 %tmp5, 0 - %tmp7 = select i1 %tmp6, float 0.000000e+00, float undef + %tmp7 = select i1 %tmp6, float 0.0e+00, float undef %tmp8 = call i32 @llvm.SI.packf16(float undef, float %tmp7) %tmp9 = bitcast i32 %tmp8 to float call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float undef, float %tmp9, float undef, float %tmp9) Index: test/CodeGen/AMDGPU/commute_modifiers.ll =================================================================== --- test/CodeGen/AMDGPU/commute_modifiers.ll +++ test/CodeGen/AMDGPU/commute_modifiers.ll @@ -27,7 +27,7 @@ %gep.0 = getelementptr float, float addrspace(1)* %in, i32 %tid %x = load float, float addrspace(1)* %gep.0 %x.fabs = call float @llvm.fabs.f32(float %x) #1 - %x.fneg.fabs = fsub float -0.000000e+00, %x.fabs + %x.fneg.fabs = fsub float -0.0e+00, %x.fabs %z = fmul float 4.0, %x.fneg.fabs store float %z, float addrspace(1)* %out ret void @@ -41,7 +41,7 @@ %tid = call i32 @llvm.r600.read.tidig.x() #1 %gep.0 = getelementptr float, float addrspace(1)* %in, i32 %tid %x = load float, float addrspace(1)* %gep.0 - %x.fneg = fsub float -0.000000e+00, %x + %x.fneg = fsub float -0.0e+00, %x %z = fmul float 4.0, %x.fneg store float %z, float addrspace(1)* %out ret void @@ -91,7 +91,7 @@ %gep.1 = getelementptr float, float addrspace(1)* %gep.0, i32 1 %x = load float, float addrspace(1)* %gep.0 %y = load float, float addrspace(1)* %gep.1 - %y.fneg = fsub float -0.000000e+00, %y + %y.fneg = fsub float -0.0e+00, %y %z = fmul float %x, %y.fneg store float %z, float addrspace(1)* %out ret void @@ -109,7 +109,7 @@ %x = load float, float addrspace(1)* %gep.0 %y = load float, float addrspace(1)* %gep.1 %y.fabs = call float @llvm.fabs.f32(float %y) #1 - %y.fabs.fneg = fsub float -0.000000e+00, %y.fabs + %y.fabs.fneg = fsub float -0.0e+00, %y.fabs %z = fmul float %x, %y.fabs.fneg store float %z, float addrspace(1)* %out ret void @@ -147,7 +147,7 @@ %y = load float, float addrspace(1)* %gep.1 %x.fabs = call float @llvm.fabs.f32(float %x) #1 %y.fabs = call float @llvm.fabs.f32(float %y) #1 - %y.fabs.fneg = fsub float -0.000000e+00, %y.fabs + %y.fabs.fneg = fsub float -0.0e+00, %y.fabs %z = fmul float %x.fabs, %y.fabs.fneg store float %z, float addrspace(1)* %out ret void Index: test/CodeGen/AMDGPU/cvt_flr_i32_f32.ll =================================================================== --- test/CodeGen/AMDGPU/cvt_flr_i32_f32.ll +++ test/CodeGen/AMDGPU/cvt_flr_i32_f32.ll @@ -49,7 +49,7 @@ ; SI-NONAN: v_cvt_flr_i32_f32_e64 v{{[0-9]+}}, -s{{[0-9]+}} ; SI: s_endpgm define void @cvt_flr_i32_f32_fneg(i32 addrspace(1)* %out, float %x) #0 { - %x.fneg = fsub float -0.000000e+00, %x + %x.fneg = fsub float -0.0e+00, %x %floor = call float @llvm.floor.f32(float %x.fneg) #1 %cvt = fptosi float %floor to i32 store i32 %cvt, i32 addrspace(1)* %out @@ -63,7 +63,7 @@ ; SI: s_endpgm define void @cvt_flr_i32_f32_fabs_fneg(i32 addrspace(1)* %out, float %x) #0 { %x.fabs = call float @llvm.fabs.f32(float %x) #1 - %x.fabs.fneg = fsub float -0.000000e+00, %x.fabs + %x.fabs.fneg = fsub float -0.0e+00, %x.fabs %floor = call float @llvm.floor.f32(float %x.fabs.fneg) #1 %cvt = fptosi float %floor to i32 store i32 %cvt, i32 addrspace(1)* %out Index: test/CodeGen/AMDGPU/cvt_rpi_i32_f32.ll =================================================================== --- test/CodeGen/AMDGPU/cvt_rpi_i32_f32.ll +++ test/CodeGen/AMDGPU/cvt_rpi_i32_f32.ll @@ -38,7 +38,7 @@ ; SI-NONAN: v_cvt_flr_i32_f32_e32 {{v[0-9]+}}, [[TMP]] ; SI: s_endpgm define void @cvt_rpi_i32_f32_fneg(i32 addrspace(1)* %out, float %x) #0 { - %x.fneg = fsub float -0.000000e+00, %x + %x.fneg = fsub float -0.0e+00, %x %fadd = fadd float %x.fneg, 0.5 %floor = call float @llvm.floor.f32(float %fadd) #1 %cvt = fptosi float %floor to i32 @@ -57,7 +57,7 @@ ; SI: s_endpgm define void @cvt_rpi_i32_f32_fabs_fneg(i32 addrspace(1)* %out, float %x) #0 { %x.fabs = call float @llvm.fabs.f32(float %x) #1 - %x.fabs.fneg = fsub float -0.000000e+00, %x.fabs + %x.fabs.fneg = fsub float -0.0e+00, %x.fabs %fadd = fadd float %x.fabs.fneg, 0.5 %floor = call float @llvm.floor.f32(float %fadd) #1 %cvt = fptosi float %floor to i32 Index: test/CodeGen/AMDGPU/ds-negative-offset-addressing-mode-loop.ll =================================================================== --- test/CodeGen/AMDGPU/ds-negative-offset-addressing-mode-loop.ll +++ test/CodeGen/AMDGPU/ds-negative-offset-addressing-mode-loop.ll @@ -30,7 +30,7 @@ br label %for.body for.body: ; preds = %for.body, %entry - %sum.03 = phi float [ 0.000000e+00, %entry ], [ %add13, %for.body ] + %sum.03 = phi float [ 0.0e+00, %entry ], [ %add13, %for.body ] %offset.02 = phi i32 [ %mul, %entry ], [ %add14, %for.body ] %k.01 = phi i32 [ 0, %entry ], [ %inc, %for.body ] tail call void @llvm.AMDGPU.barrier.local() #1 Index: test/CodeGen/AMDGPU/fcmp-cnd.ll =================================================================== --- test/CodeGen/AMDGPU/fcmp-cnd.ll +++ test/CodeGen/AMDGPU/fcmp-cnd.ll @@ -7,7 +7,7 @@ define void @test(i32 addrspace(1)* %out, float addrspace(1)* %in) { entry: %0 = load float, float addrspace(1)* %in - %cmp = fcmp oeq float %0, 0.000000e+00 + %cmp = fcmp oeq float %0, 0.0e+00 %value = select i1 %cmp, i32 2, i32 3 store i32 %value, i32 addrspace(1)* %out ret void Index: test/CodeGen/AMDGPU/fcmp-cnde-int-args.ll =================================================================== --- test/CodeGen/AMDGPU/fcmp-cnde-int-args.ll +++ test/CodeGen/AMDGPU/fcmp-cnde-int-args.ll @@ -9,7 +9,7 @@ define void @test(i32 addrspace(1)* %out, float addrspace(1)* %in) { entry: %0 = load float, float addrspace(1)* %in - %cmp = fcmp oeq float %0, 0.000000e+00 + %cmp = fcmp oeq float %0, 0.0e+00 %value = select i1 %cmp, i32 -1, i32 0 store i32 %value, i32 addrspace(1)* %out ret void Index: test/CodeGen/AMDGPU/fconst64.ll =================================================================== --- test/CodeGen/AMDGPU/fconst64.ll +++ test/CodeGen/AMDGPU/fconst64.ll @@ -7,7 +7,7 @@ define void @fconst_f64(double addrspace(1)* %out, double addrspace(1)* %in) { %r1 = load double, double addrspace(1)* %in - %r2 = fadd double %r1, 5.000000e+00 + %r2 = fadd double %r1, 5.0e+00 store double %r2, double addrspace(1)* %out ret void } Index: test/CodeGen/AMDGPU/fmuladd.ll =================================================================== --- test/CodeGen/AMDGPU/fmuladd.ll +++ test/CodeGen/AMDGPU/fmuladd.ll @@ -147,7 +147,7 @@ %r1 = load float, float addrspace(1)* %gep.0 %r2 = load float, float addrspace(1)* %gep.1 - %r1.fneg = fsub float -0.000000e+00, %r1 + %r1.fneg = fsub float -0.0e+00, %r1 %r3 = tail call float @llvm.fmuladd.f32(float -2.0, float %r1.fneg, float %r2) store float %r3, float addrspace(1)* %gep.out @@ -169,7 +169,7 @@ %r1 = load float, float addrspace(1)* %gep.0 %r2 = load float, float addrspace(1)* %gep.1 - %r1.fneg = fsub float -0.000000e+00, %r1 + %r1.fneg = fsub float -0.0e+00, %r1 %r3 = tail call float @llvm.fmuladd.f32(float 2.0, float %r1.fneg, float %r2) store float %r3, float addrspace(1)* %gep.out @@ -191,7 +191,7 @@ %r1 = load float, float addrspace(1)* %gep.0 %r2 = load float, float addrspace(1)* %gep.1 - %r2.fneg = fsub float -0.000000e+00, %r2 + %r2.fneg = fsub float -0.0e+00, %r2 %r3 = tail call float @llvm.fmuladd.f32(float 2.0, float %r1, float %r2.fneg) store float %r3, float addrspace(1)* %gep.out Index: test/CodeGen/AMDGPU/fneg-fabs.f64.ll =================================================================== --- test/CodeGen/AMDGPU/fneg-fabs.f64.ll +++ test/CodeGen/AMDGPU/fneg-fabs.f64.ll @@ -8,7 +8,7 @@ ; SI: v_add_f64 {{v\[[0-9]+:[0-9]+\]}}, {{s\[[0-9]+:[0-9]+\]}}, -|v{{\[[0-9]+:[0-9]+\]}}| define void @fneg_fabs_fadd_f64(double addrspace(1)* %out, double %x, double %y) { %fabs = call double @llvm.fabs.f64(double %x) - %fsub = fsub double -0.000000e+00, %fabs + %fsub = fsub double -0.0e+00, %fabs %fadd = fadd double %y, %fsub store double %fadd, double addrspace(1)* %out, align 8 ret void @@ -18,7 +18,7 @@ %x = load double, double addrspace(1)* %xptr, align 8 %y = load double, double addrspace(1)* %xptr, align 8 %fabs = call double @llvm.fabs.f64(double %x) - %fsub = fsub double -0.000000e+00, %fabs + %fsub = fsub double -0.0e+00, %fabs %fadd = fadd double %y, %fsub store double %fadd, double addrspace(1)* %out, align 8 ret void @@ -28,7 +28,7 @@ ; SI: v_mul_f64 {{v\[[0-9]+:[0-9]+\]}}, {{s\[[0-9]+:[0-9]+\]}}, -|{{v\[[0-9]+:[0-9]+\]}}| define void @fneg_fabs_fmul_f64(double addrspace(1)* %out, double %x, double %y) { %fabs = call double @llvm.fabs.f64(double %x) - %fsub = fsub double -0.000000e+00, %fabs + %fsub = fsub double -0.0e+00, %fabs %fmul = fmul double %y, %fsub store double %fmul, double addrspace(1)* %out, align 8 ret void @@ -38,7 +38,7 @@ define void @fneg_fabs_free_f64(double addrspace(1)* %out, i64 %in) { %bc = bitcast i64 %in to double %fabs = call double @llvm.fabs.f64(double %bc) - %fsub = fsub double -0.000000e+00, %fabs + %fsub = fsub double -0.0e+00, %fabs store double %fsub, double addrspace(1)* %out ret void } @@ -49,7 +49,7 @@ define void @fneg_fabs_fn_free_f64(double addrspace(1)* %out, i64 %in) { %bc = bitcast i64 %in to double %fabs = call double @fabs(double %bc) - %fsub = fsub double -0.000000e+00, %fabs + %fsub = fsub double -0.0e+00, %fabs store double %fsub, double addrspace(1)* %out ret void } @@ -63,7 +63,7 @@ ; SI: buffer_store_dwordx2 v{{\[}}[[LO_V]]:[[HI_V]]{{\]}} define void @fneg_fabs_f64(double addrspace(1)* %out, double %in) { %fabs = call double @llvm.fabs.f64(double %in) - %fsub = fsub double -0.000000e+00, %fabs + %fsub = fsub double -0.0e+00, %fabs store double %fsub, double addrspace(1)* %out, align 8 ret void } @@ -75,7 +75,7 @@ ; SI: v_or_b32_e32 v{{[0-9]+}}, s{{[0-9]+}}, [[IMMREG]] define void @fneg_fabs_v2f64(<2 x double> addrspace(1)* %out, <2 x double> %in) { %fabs = call <2 x double> @llvm.fabs.v2f64(<2 x double> %in) - %fsub = fsub <2 x double> , %fabs + %fsub = fsub <2 x double> , %fabs store <2 x double> %fsub, <2 x double> addrspace(1)* %out ret void } @@ -89,7 +89,7 @@ ; SI: v_or_b32_e32 v{{[0-9]+}}, s{{[0-9]+}}, [[IMMREG]] define void @fneg_fabs_v4f64(<4 x double> addrspace(1)* %out, <4 x double> %in) { %fabs = call <4 x double> @llvm.fabs.v4f64(<4 x double> %in) - %fsub = fsub <4 x double> , %fabs + %fsub = fsub <4 x double> , %fabs store <4 x double> %fsub, <4 x double> addrspace(1)* %out ret void } Index: test/CodeGen/AMDGPU/fneg-fabs.ll =================================================================== --- test/CodeGen/AMDGPU/fneg-fabs.ll +++ test/CodeGen/AMDGPU/fneg-fabs.ll @@ -7,7 +7,7 @@ ; SI: v_sub_f32_e64 {{v[0-9]+}}, {{s[0-9]+}}, |{{v[0-9]+}}| define void @fneg_fabs_fadd_f32(float addrspace(1)* %out, float %x, float %y) { %fabs = call float @llvm.fabs.f32(float %x) - %fsub = fsub float -0.000000e+00, %fabs + %fsub = fsub float -0.0e+00, %fabs %fadd = fadd float %y, %fsub store float %fadd, float addrspace(1)* %out, align 4 ret void @@ -19,7 +19,7 @@ ; SI-NOT: and define void @fneg_fabs_fmul_f32(float addrspace(1)* %out, float %x, float %y) { %fabs = call float @llvm.fabs.f32(float %x) - %fsub = fsub float -0.000000e+00, %fabs + %fsub = fsub float -0.0e+00, %fabs %fmul = fmul float %y, %fsub store float %fmul, float addrspace(1)* %out, align 4 ret void @@ -38,7 +38,7 @@ define void @fneg_fabs_free_f32(float addrspace(1)* %out, i32 %in) { %bc = bitcast i32 %in to float %fabs = call float @llvm.fabs.f32(float %bc) - %fsub = fsub float -0.000000e+00, %fabs + %fsub = fsub float -0.0e+00, %fabs store float %fsub, float addrspace(1)* %out ret void } @@ -52,7 +52,7 @@ define void @fneg_fabs_fn_free_f32(float addrspace(1)* %out, i32 %in) { %bc = bitcast i32 %in to float %fabs = call float @fabs(float %bc) - %fsub = fsub float -0.000000e+00, %fabs + %fsub = fsub float -0.0e+00, %fabs store float %fsub, float addrspace(1)* %out ret void } @@ -61,7 +61,7 @@ ; SI: s_or_b32 s{{[0-9]+}}, s{{[0-9]+}}, 0x80000000 define void @fneg_fabs_f32(float addrspace(1)* %out, float %in) { %fabs = call float @llvm.fabs.f32(float %in) - %fsub = fsub float -0.000000e+00, %fabs + %fsub = fsub float -0.0e+00, %fabs store float %fsub, float addrspace(1)* %out, align 4 ret void } @@ -71,7 +71,7 @@ define void @v_fneg_fabs_f32(float addrspace(1)* %out, float addrspace(1)* %in) { %val = load float, float addrspace(1)* %in, align 4 %fabs = call float @llvm.fabs.f32(float %val) - %fsub = fsub float -0.000000e+00, %fabs + %fsub = fsub float -0.0e+00, %fabs store float %fsub, float addrspace(1)* %out, align 4 ret void } @@ -86,7 +86,7 @@ ; SI: v_or_b32_e32 v{{[0-9]+}}, 0x80000000, v{{[0-9]+}} define void @fneg_fabs_v2f32(<2 x float> addrspace(1)* %out, <2 x float> %in) { %fabs = call <2 x float> @llvm.fabs.v2f32(<2 x float> %in) - %fsub = fsub <2 x float> , %fabs + %fsub = fsub <2 x float> , %fabs store <2 x float> %fsub, <2 x float> addrspace(1)* %out ret void } @@ -98,7 +98,7 @@ ; SI: v_or_b32_e32 v{{[0-9]+}}, 0x80000000, v{{[0-9]+}} define void @fneg_fabs_v4f32(<4 x float> addrspace(1)* %out, <4 x float> %in) { %fabs = call <4 x float> @llvm.fabs.v4f32(<4 x float> %in) - %fsub = fsub <4 x float> , %fabs + %fsub = fsub <4 x float> , %fabs store <4 x float> %fsub, <4 x float> addrspace(1)* %out ret void } Index: test/CodeGen/AMDGPU/fneg.f64.ll =================================================================== --- test/CodeGen/AMDGPU/fneg.f64.ll +++ test/CodeGen/AMDGPU/fneg.f64.ll @@ -4,7 +4,7 @@ ; FUNC-LABEL: {{^}}fneg_f64: ; GCN: v_xor_b32 define void @fneg_f64(double addrspace(1)* %out, double %in) { - %fneg = fsub double -0.000000e+00, %in + %fneg = fsub double -0.0e+00, %in store double %fneg, double addrspace(1)* %out ret void } @@ -13,7 +13,7 @@ ; GCN: v_xor_b32 ; GCN: v_xor_b32 define void @fneg_v2f64(<2 x double> addrspace(1)* nocapture %out, <2 x double> %in) { - %fneg = fsub <2 x double> , %in + %fneg = fsub <2 x double> , %in store <2 x double> %fneg, <2 x double> addrspace(1)* %out ret void } @@ -29,7 +29,7 @@ ; GCN: v_xor_b32 ; GCN: v_xor_b32 define void @fneg_v4f64(<4 x double> addrspace(1)* nocapture %out, <4 x double> %in) { - %fneg = fsub <4 x double> , %in + %fneg = fsub <4 x double> , %in store <4 x double> %fneg, <4 x double> addrspace(1)* %out ret void } Index: test/CodeGen/AMDGPU/fneg.ll =================================================================== --- test/CodeGen/AMDGPU/fneg.ll +++ test/CodeGen/AMDGPU/fneg.ll @@ -7,7 +7,7 @@ ; GCN: v_xor_b32 define void @fneg_f32(float addrspace(1)* %out, float %in) { - %fneg = fsub float -0.000000e+00, %in + %fneg = fsub float -0.0e+00, %in store float %fneg, float addrspace(1)* %out ret void } @@ -19,7 +19,7 @@ ; GCN: v_xor_b32 ; GCN: v_xor_b32 define void @fneg_v2f32(<2 x float> addrspace(1)* nocapture %out, <2 x float> %in) { - %fneg = fsub <2 x float> , %in + %fneg = fsub <2 x float> , %in store <2 x float> %fneg, <2 x float> addrspace(1)* %out ret void } @@ -35,7 +35,7 @@ ; GCN: v_xor_b32 ; GCN: v_xor_b32 define void @fneg_v4f32(<4 x float> addrspace(1)* nocapture %out, <4 x float> %in) { - %fneg = fsub <4 x float> , %in + %fneg = fsub <4 x float> , %in store <4 x float> %fneg, <4 x float> addrspace(1)* %out ret void } Index: test/CodeGen/AMDGPU/fp-classify.ll =================================================================== --- test/CodeGen/AMDGPU/fp-classify.ll +++ test/CodeGen/AMDGPU/fp-classify.ll @@ -49,7 +49,7 @@ ; SI-NOT: v_cmp ; SI: s_endpgm define void @test_isfinite_pattern_0(i32 addrspace(1)* nocapture %out, float %x) #0 { - %ord = fcmp ord float %x, 0.000000e+00 + %ord = fcmp ord float %x, 0.0e+00 %x.fabs = tail call float @llvm.fabs.f32(float %x) #1 %ninf = fcmp une float %x.fabs, 0x7FF0000000000000 %and = and i1 %ord, %ninf @@ -63,7 +63,7 @@ ; SI-NOT: v_cmp_class_f32 ; SI: s_endpgm define void @test_isfinite_not_pattern_0(i32 addrspace(1)* nocapture %out, float %x) #0 { - %ord = fcmp ord float %x, 0.000000e+00 + %ord = fcmp ord float %x, 0.0e+00 %x.fabs = tail call float @llvm.fabs.f32(float %x) #1 %ninf = fcmp une float %x.fabs, 0xFFF0000000000000 %and = and i1 %ord, %ninf @@ -77,7 +77,7 @@ ; SI-NOT: v_cmp_class_f32 ; SI: s_endpgm define void @test_isfinite_not_pattern_1(i32 addrspace(1)* nocapture %out, float %x) #0 { - %ord = fcmp ord float %x, 0.000000e+00 + %ord = fcmp ord float %x, 0.0e+00 %ninf = fcmp une float %x, 0x7FF0000000000000 %and = and i1 %ord, %ninf %ext = zext i1 %and to i32 @@ -90,7 +90,7 @@ ; SI-NOT: v_cmp_class_f32 ; SI: s_endpgm define void @test_isfinite_not_pattern_2(i32 addrspace(1)* nocapture %out, float %x, float %y) #0 { - %ord = fcmp ord float %x, 0.000000e+00 + %ord = fcmp ord float %x, 0.0e+00 %x.fabs = tail call float @llvm.fabs.f32(float %y) #1 %ninf = fcmp une float %x.fabs, 0x7FF0000000000000 %and = and i1 %ord, %ninf @@ -104,7 +104,7 @@ ; SI-NOT: v_cmp_class_f32 ; SI: s_endpgm define void @test_isfinite_not_pattern_3(i32 addrspace(1)* nocapture %out, float %x) #0 { - %ord = fcmp uno float %x, 0.000000e+00 + %ord = fcmp uno float %x, 0.0e+00 %x.fabs = tail call float @llvm.fabs.f32(float %x) #1 %ninf = fcmp une float %x.fabs, 0x7FF0000000000000 %and = and i1 %ord, %ninf @@ -118,7 +118,7 @@ ; SI-NOT: v_cmp_class_f32 ; SI: s_endpgm define void @test_isfinite_not_pattern_4(i32 addrspace(1)* nocapture %out, float %x) #0 { - %ord = fcmp ord float %x, 0.000000e+00 + %ord = fcmp ord float %x, 0.0e+00 %x.fabs = tail call float @llvm.fabs.f32(float %x) #1 %ninf = fcmp one float %x.fabs, 0x7FF0000000000000 %and = and i1 %ord, %ninf Index: test/CodeGen/AMDGPU/input-mods.ll =================================================================== --- test/CodeGen/AMDGPU/input-mods.ll +++ test/CodeGen/AMDGPU/input-mods.ll @@ -12,7 +12,7 @@ define void @test(<4 x float> inreg %reg0) #0 { %r0 = extractelement <4 x float> %reg0, i32 0 %r1 = call float @llvm.fabs.f32(float %r0) - %r2 = fsub float -0.000000e+00, %r1 + %r2 = fsub float -0.0e+00, %r1 %r3 = call float @llvm.exp2.f32(float %r2) %vec = insertelement <4 x float> undef, float %r3, i32 0 call void @llvm.R600.store.swizzle(<4 x float> %vec, i32 0, i32 0) Index: test/CodeGen/AMDGPU/insert_vector_elt.ll =================================================================== --- test/CodeGen/AMDGPU/insert_vector_elt.ll +++ test/CodeGen/AMDGPU/insert_vector_elt.ll @@ -12,32 +12,32 @@ ; SI-LABEL: {{^}}insertelement_v4f32_0: ; s_load_dwordx4 s{{[}}[[LOW_REG:[0-9]+]]: ; v_mov_b32_e32 -; v_mov_b32_e32 [[CONSTREG:v[0-9]+]], 5.000000e+00 +; v_mov_b32_e32 [[CONSTREG:v[0-9]+]], 5.0e+00 ; v_mov_b32_e32 v[[LOW_REG]], [[CONSTREG]] ; buffer_store_dwordx4 v{{[}}[[LOW_REG]]: define void @insertelement_v4f32_0(<4 x float> addrspace(1)* %out, <4 x float> %a) nounwind { - %vecins = insertelement <4 x float> %a, float 5.000000e+00, i32 0 + %vecins = insertelement <4 x float> %a, float 5.0e+00, i32 0 store <4 x float> %vecins, <4 x float> addrspace(1)* %out, align 16 ret void } ; SI-LABEL: {{^}}insertelement_v4f32_1: define void @insertelement_v4f32_1(<4 x float> addrspace(1)* %out, <4 x float> %a) nounwind { - %vecins = insertelement <4 x float> %a, float 5.000000e+00, i32 1 + %vecins = insertelement <4 x float> %a, float 5.0e+00, i32 1 store <4 x float> %vecins, <4 x float> addrspace(1)* %out, align 16 ret void } ; SI-LABEL: {{^}}insertelement_v4f32_2: define void @insertelement_v4f32_2(<4 x float> addrspace(1)* %out, <4 x float> %a) nounwind { - %vecins = insertelement <4 x float> %a, float 5.000000e+00, i32 2 + %vecins = insertelement <4 x float> %a, float 5.0e+00, i32 2 store <4 x float> %vecins, <4 x float> addrspace(1)* %out, align 16 ret void } ; SI-LABEL: {{^}}insertelement_v4f32_3: define void @insertelement_v4f32_3(<4 x float> addrspace(1)* %out, <4 x float> %a) nounwind { - %vecins = insertelement <4 x float> %a, float 5.000000e+00, i32 3 + %vecins = insertelement <4 x float> %a, float 5.0e+00, i32 3 store <4 x float> %vecins, <4 x float> addrspace(1)* %out, align 16 ret void } @@ -54,7 +54,7 @@ ; SI: v_movreld_b32_e32 v[[LOW_RESULT_REG:[0-9]+]], [[CONST]] ; SI: buffer_store_dwordx2 {{v\[}}[[LOW_RESULT_REG]]: define void @dynamic_insertelement_v2f32(<2 x float> addrspace(1)* %out, <2 x float> %a, i32 %b) nounwind { - %vecins = insertelement <2 x float> %a, float 5.000000e+00, i32 %b + %vecins = insertelement <2 x float> %a, float 5.0e+00, i32 %b store <2 x float> %vecins, <2 x float> addrspace(1)* %out, align 8 ret void } @@ -64,7 +64,7 @@ ; SI: v_movreld_b32_e32 v[[LOW_RESULT_REG:[0-9]+]], [[CONST]] ; SI: buffer_store_dwordx4 {{v\[}}[[LOW_RESULT_REG]]: define void @dynamic_insertelement_v4f32(<4 x float> addrspace(1)* %out, <4 x float> %a, i32 %b) nounwind { - %vecins = insertelement <4 x float> %a, float 5.000000e+00, i32 %b + %vecins = insertelement <4 x float> %a, float 5.0e+00, i32 %b store <4 x float> %vecins, <4 x float> addrspace(1)* %out, align 16 ret void } @@ -74,7 +74,7 @@ ; SI: buffer_store_dwordx4 ; SI: buffer_store_dwordx4 define void @dynamic_insertelement_v8f32(<8 x float> addrspace(1)* %out, <8 x float> %a, i32 %b) nounwind { - %vecins = insertelement <8 x float> %a, float 5.000000e+00, i32 %b + %vecins = insertelement <8 x float> %a, float 5.0e+00, i32 %b store <8 x float> %vecins, <8 x float> addrspace(1)* %out, align 32 ret void } @@ -86,7 +86,7 @@ ; SI: buffer_store_dwordx4 ; SI: buffer_store_dwordx4 define void @dynamic_insertelement_v16f32(<16 x float> addrspace(1)* %out, <16 x float> %a, i32 %b) nounwind { - %vecins = insertelement <16 x float> %a, float 5.000000e+00, i32 %b + %vecins = insertelement <16 x float> %a, float 5.0e+00, i32 %b store <16 x float> %vecins, <16 x float> addrspace(1)* %out, align 64 ret void } Index: test/CodeGen/AMDGPU/jump-address.ll =================================================================== --- test/CodeGen/AMDGPU/jump-address.ll +++ test/CodeGen/AMDGPU/jump-address.ll @@ -28,10 +28,10 @@ br i1 %15, label %IF13, label %ENDIF ENDIF: ; preds = %IF13, %ELSE, %main_body - %temp.0 = phi float [ 0xFFF8000000000000, %main_body ], [ 0.000000e+00, %ELSE ], [ 0.000000e+00, %IF13 ] - %temp1.0 = phi float [ 0.000000e+00, %main_body ], [ %23, %IF13 ], [ 0.000000e+00, %ELSE ] - %temp2.0 = phi float [ 1.000000e+00, %main_body ], [ 0.000000e+00, %ELSE ], [ 0.000000e+00, %IF13 ] - %temp3.0 = phi float [ 5.000000e-01, %main_body ], [ 0.000000e+00, %ELSE ], [ 0.000000e+00, %IF13 ] + %temp.0 = phi float [ 0xFFF8000000000000, %main_body ], [ 0.0e+00, %ELSE ], [ 0.0e+00, %IF13 ] + %temp1.0 = phi float [ 0.0e+00, %main_body ], [ %23, %IF13 ], [ 0.0e+00, %ELSE ] + %temp2.0 = phi float [ 1.0e+00, %main_body ], [ 0.0e+00, %ELSE ], [ 0.0e+00, %IF13 ] + %temp3.0 = phi float [ 5.0e-01, %main_body ], [ 0.0e+00, %ELSE ], [ 0.0e+00, %IF13 ] %16 = insertelement <4 x float> undef, float %temp.0, i32 0 %17 = insertelement <4 x float> %16, float %temp1.0, i32 1 %18 = insertelement <4 x float> %17, float %temp2.0, i32 2 @@ -42,7 +42,7 @@ IF13: ; preds = %ELSE %20 = load <4 x float>, <4 x float> addrspace(8)* null %21 = extractelement <4 x float> %20, i32 0 - %22 = fsub float -0.000000e+00, %21 + %22 = fsub float -0.0e+00, %21 %23 = fadd float 0xFFF8000000000000, %22 br label %ENDIF } Index: test/CodeGen/AMDGPU/kcache-fold.ll =================================================================== --- test/CodeGen/AMDGPU/kcache-fold.ll +++ test/CodeGen/AMDGPU/kcache-fold.ll @@ -10,7 +10,7 @@ %3 = extractelement <4 x float> %2, i32 0 %4 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 2) %5 = extractelement <4 x float> %4, i32 0 - %6 = fcmp ogt float %1, 0.000000e+00 + %6 = fcmp ogt float %1, 0.0e+00 %7 = select i1 %6, float %3, float %5 %8 = load <4 x float>, <4 x float> addrspace(8)* null %9 = extractelement <4 x float> %8, i32 1 @@ -18,7 +18,7 @@ %11 = extractelement <4 x float> %10, i32 1 %12 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 2) %13 = extractelement <4 x float> %12, i32 1 - %14 = fcmp ogt float %9, 0.000000e+00 + %14 = fcmp ogt float %9, 0.0e+00 %15 = select i1 %14, float %11, float %13 %16 = load <4 x float>, <4 x float> addrspace(8)* null %17 = extractelement <4 x float> %16, i32 2 @@ -26,7 +26,7 @@ %19 = extractelement <4 x float> %18, i32 2 %20 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 2) %21 = extractelement <4 x float> %20, i32 2 - %22 = fcmp ogt float %17, 0.000000e+00 + %22 = fcmp ogt float %17, 0.0e+00 %23 = select i1 %22, float %19, float %21 %24 = load <4 x float>, <4 x float> addrspace(8)* null %25 = extractelement <4 x float> %24, i32 3 @@ -34,12 +34,12 @@ %27 = extractelement <4 x float> %26, i32 3 %28 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 2) %29 = extractelement <4 x float> %28, i32 3 - %30 = fcmp ogt float %25, 0.000000e+00 + %30 = fcmp ogt float %25, 0.0e+00 %31 = select i1 %30, float %27, float %29 - %32 = call float @llvm.AMDGPU.clamp.f32(float %7, float 0.000000e+00, float 1.000000e+00) - %33 = call float @llvm.AMDGPU.clamp.f32(float %15, float 0.000000e+00, float 1.000000e+00) - %34 = call float @llvm.AMDGPU.clamp.f32(float %23, float 0.000000e+00, float 1.000000e+00) - %35 = call float @llvm.AMDGPU.clamp.f32(float %31, float 0.000000e+00, float 1.000000e+00) + %32 = call float @llvm.AMDGPU.clamp.f32(float %7, float 0.0e+00, float 1.0e+00) + %33 = call float @llvm.AMDGPU.clamp.f32(float %15, float 0.0e+00, float 1.0e+00) + %34 = call float @llvm.AMDGPU.clamp.f32(float %23, float 0.0e+00, float 1.0e+00) + %35 = call float @llvm.AMDGPU.clamp.f32(float %31, float 0.0e+00, float 1.0e+00) %36 = insertelement <4 x float> undef, float %32, i32 0 %37 = insertelement <4 x float> %36, float %33, i32 1 %38 = insertelement <4 x float> %37, float %34, i32 2 @@ -58,7 +58,7 @@ %3 = extractelement <4 x float> %2, i32 0 %4 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 1) %5 = extractelement <4 x float> %4, i32 1 - %6 = fcmp ogt float %1, 0.000000e+00 + %6 = fcmp ogt float %1, 0.0e+00 %7 = select i1 %6, float %3, float %5 %8 = load <4 x float>, <4 x float> addrspace(8)* null %9 = extractelement <4 x float> %8, i32 1 @@ -66,7 +66,7 @@ %11 = extractelement <4 x float> %10, i32 0 %12 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 2) %13 = extractelement <4 x float> %12, i32 1 - %14 = fcmp ogt float %9, 0.000000e+00 + %14 = fcmp ogt float %9, 0.0e+00 %15 = select i1 %14, float %11, float %13 %16 = load <4 x float>, <4 x float> addrspace(8)* null %17 = extractelement <4 x float> %16, i32 2 @@ -74,7 +74,7 @@ %19 = extractelement <4 x float> %18, i32 3 %20 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 1) %21 = extractelement <4 x float> %20, i32 2 - %22 = fcmp ogt float %17, 0.000000e+00 + %22 = fcmp ogt float %17, 0.0e+00 %23 = select i1 %22, float %19, float %21 %24 = load <4 x float>, <4 x float> addrspace(8)* null %25 = extractelement <4 x float> %24, i32 3 @@ -82,12 +82,12 @@ %27 = extractelement <4 x float> %26, i32 3 %28 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 2) %29 = extractelement <4 x float> %28, i32 2 - %30 = fcmp ogt float %25, 0.000000e+00 + %30 = fcmp ogt float %25, 0.0e+00 %31 = select i1 %30, float %27, float %29 - %32 = call float @llvm.AMDGPU.clamp.f32(float %7, float 0.000000e+00, float 1.000000e+00) - %33 = call float @llvm.AMDGPU.clamp.f32(float %15, float 0.000000e+00, float 1.000000e+00) - %34 = call float @llvm.AMDGPU.clamp.f32(float %23, float 0.000000e+00, float 1.000000e+00) - %35 = call float @llvm.AMDGPU.clamp.f32(float %31, float 0.000000e+00, float 1.000000e+00) + %32 = call float @llvm.AMDGPU.clamp.f32(float %7, float 0.0e+00, float 1.0e+00) + %33 = call float @llvm.AMDGPU.clamp.f32(float %15, float 0.0e+00, float 1.0e+00) + %34 = call float @llvm.AMDGPU.clamp.f32(float %23, float 0.0e+00, float 1.0e+00) + %35 = call float @llvm.AMDGPU.clamp.f32(float %31, float 0.0e+00, float 1.0e+00) %36 = insertelement <4 x float> undef, float %32, i32 0 %37 = insertelement <4 x float> %36, float %33, i32 1 %38 = insertelement <4 x float> %37, float %34, i32 2 Index: test/CodeGen/AMDGPU/llvm.AMDGPU.cube.ll =================================================================== --- test/CodeGen/AMDGPU/llvm.AMDGPU.cube.ll +++ test/CodeGen/AMDGPU/llvm.AMDGPU.cube.ll @@ -21,18 +21,18 @@ %11 = insertelement <4 x float> undef, float %4, i32 0 %12 = insertelement <4 x float> %11, float %7, i32 1 %13 = insertelement <4 x float> %12, float %10, i32 2 - %14 = insertelement <4 x float> %13, float 1.000000e+00, i32 3 + %14 = insertelement <4 x float> %13, float 1.0e+00, i32 3 %15 = call <4 x float> @llvm.AMDGPU.cube(<4 x float> %14) %16 = extractelement <4 x float> %15, i32 0 %17 = extractelement <4 x float> %15, i32 1 %18 = extractelement <4 x float> %15, i32 2 %19 = extractelement <4 x float> %15, i32 3 %20 = call float @fabs(float %18) - %21 = fdiv float 1.000000e+00, %20 + %21 = fdiv float 1.0e+00, %20 %22 = fmul float %16, %21 - %23 = fadd float %22, 1.500000e+00 + %23 = fadd float %22, 1.5e+00 %24 = fmul float %17, %21 - %25 = fadd float %24, 1.500000e+00 + %25 = fadd float %24, 1.5e+00 %26 = insertelement <4 x float> undef, float %25, i32 0 %27 = insertelement <4 x float> %26, float %23, i32 1 %28 = insertelement <4 x float> %27, float %19, i32 2 Index: test/CodeGen/AMDGPU/llvm.AMDGPU.kill.ll =================================================================== --- test/CodeGen/AMDGPU/llvm.AMDGPU.kill.ll +++ test/CodeGen/AMDGPU/llvm.AMDGPU.kill.ll @@ -8,10 +8,10 @@ define void @kill_gs_const() #0 { main_body: %0 = icmp ule i32 0, 3 - %1 = select i1 %0, float 1.000000e+00, float -1.000000e+00 + %1 = select i1 %0, float 1.0e+00, float -1.0e+00 call void @llvm.AMDGPU.kill(float %1) %2 = icmp ule i32 3, 0 - %3 = select i1 %2, float 1.000000e+00, float -1.000000e+00 + %3 = select i1 %2, float 1.0e+00, float -1.0e+00 call void @llvm.AMDGPU.kill(float %3) ret void } Index: test/CodeGen/AMDGPU/llvm.SI.fs.interp.ll =================================================================== --- test/CodeGen/AMDGPU/llvm.SI.fs.interp.ll +++ test/CodeGen/AMDGPU/llvm.SI.fs.interp.ll @@ -35,7 +35,7 @@ %27 = call float @fabs(float %24) %28 = call i32 @llvm.SI.packf16(float %25, float %26) %29 = bitcast i32 %28 to float - %30 = call i32 @llvm.SI.packf16(float %27, float 1.000000e+00) + %30 = call i32 @llvm.SI.packf16(float %27, float 1.0e+00) %31 = bitcast i32 %30 to float call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %29, float %31, float %29, float %31) ret void Index: test/CodeGen/AMDGPU/llvm.amdgpu.kilp.ll =================================================================== --- test/CodeGen/AMDGPU/llvm.amdgpu.kilp.ll +++ test/CodeGen/AMDGPU/llvm.amdgpu.kilp.ll @@ -6,10 +6,10 @@ define void @kilp_gs_const() #0 { main_body: %0 = icmp ule i32 0, 3 - %1 = select i1 %0, float 1.000000e+00, float -1.000000e+00 + %1 = select i1 %0, float 1.0e+00, float -1.0e+00 call void @llvm.AMDGPU.kilp(float %1) %2 = icmp ule i32 3, 0 - %3 = select i1 %2, float 1.000000e+00, float -1.000000e+00 + %3 = select i1 %2, float 1.0e+00, float -1.0e+00 call void @llvm.AMDGPU.kilp(float %3) ret void } Index: test/CodeGen/AMDGPU/llvm.sqrt.ll =================================================================== --- test/CodeGen/AMDGPU/llvm.sqrt.ll +++ test/CodeGen/AMDGPU/llvm.sqrt.ll @@ -56,7 +56,7 @@ define void @elim_redun_check(float addrspace(1)* %out, float %in) { entry: %sqrt = call float @llvm.sqrt.f32(float %in) - %cmp = fcmp olt float %in, -0.000000e+00 + %cmp = fcmp olt float %in, -0.0e+00 %res = select i1 %cmp, float 0x7FF8000000000000, float %sqrt store float %res, float addrspace(1)* %out ret void @@ -68,7 +68,7 @@ define void @elim_redun_check_ult(float addrspace(1)* %out, float %in) { entry: %sqrt = call float @llvm.sqrt.f32(float %in) - %cmp = fcmp ult float %in, -0.000000e+00 + %cmp = fcmp ult float %in, -0.0e+00 %res = select i1 %cmp, float 0x7FF8000000000000, float %sqrt store float %res, float addrspace(1)* %out ret void @@ -81,7 +81,7 @@ define void @elim_redun_check_v2(<2 x float> addrspace(1)* %out, <2 x float> %in) { entry: %sqrt = call <2 x float> @llvm.sqrt.v2f32(<2 x float> %in) - %cmp = fcmp olt <2 x float> %in, + %cmp = fcmp olt <2 x float> %in, %res = select <2 x i1> %cmp, <2 x float> , <2 x float> %sqrt store <2 x float> %res, <2 x float> addrspace(1)* %out ret void @@ -94,7 +94,7 @@ define void @elim_redun_check_v2_ult(<2 x float> addrspace(1)* %out, <2 x float> %in) { entry: %sqrt = call <2 x float> @llvm.sqrt.v2f32(<2 x float> %in) - %cmp = fcmp ult <2 x float> %in, + %cmp = fcmp ult <2 x float> %in, %res = select <2 x i1> %cmp, <2 x float> , <2 x float> %sqrt store <2 x float> %res, <2 x float> addrspace(1)* %out ret void Index: test/CodeGen/AMDGPU/load-input-fold.ll =================================================================== --- test/CodeGen/AMDGPU/load-input-fold.ll +++ test/CodeGen/AMDGPU/load-input-fold.ll @@ -83,11 +83,11 @@ %78 = insertelement <4 x float> undef, float %4, i32 0 %79 = insertelement <4 x float> %78, float %5, i32 1 %80 = insertelement <4 x float> %79, float %6, i32 2 - %81 = insertelement <4 x float> %80, float 0.000000e+00, i32 3 + %81 = insertelement <4 x float> %80, float 0.0e+00, i32 3 %82 = insertelement <4 x float> undef, float %73, i32 0 %83 = insertelement <4 x float> %82, float %75, i32 1 %84 = insertelement <4 x float> %83, float %77, i32 2 - %85 = insertelement <4 x float> %84, float 0.000000e+00, i32 3 + %85 = insertelement <4 x float> %84, float 0.0e+00, i32 3 %86 = call float @llvm.AMDGPU.dp4(<4 x float> %81, <4 x float> %85) %87 = insertelement <4 x float> undef, float %86, i32 0 call void @llvm.R600.store.swizzle(<4 x float> %87, i32 2, i32 2) Index: test/CodeGen/AMDGPU/mad-sub.ll =================================================================== --- test/CodeGen/AMDGPU/mad-sub.ll +++ test/CodeGen/AMDGPU/mad-sub.ll @@ -136,8 +136,8 @@ %a = load float, float addrspace(1)* %gep0, align 4 %b = load float, float addrspace(1)* %gep1, align 4 %c = load float, float addrspace(1)* %gep2, align 4 - %nega = fsub float -0.000000e+00, %a - %negb = fsub float -0.000000e+00, %b + %nega = fsub float -0.0e+00, %a + %negb = fsub float -0.0e+00, %b %mul = fmul float %nega, %negb %sub = fadd float %mul, %c store float %sub, float addrspace(1)* %outgep, align 4 Index: test/CodeGen/AMDGPU/madmk.ll =================================================================== --- test/CodeGen/AMDGPU/madmk.ll +++ test/CodeGen/AMDGPU/madmk.ll @@ -194,7 +194,7 @@ bb2: ; preds = %bb6, %bb %tmp = phi float [ undef, %bb ], [ %tmp8, %bb6 ] %tmp3 = fsub float undef, %tmp - %tmp5 = fcmp oeq float %tmp3, 1.000000e+04 + %tmp5 = fcmp oeq float %tmp3, 1.0e+04 br i1 %tmp5, label %bb1, label %bb6 bb6: ; preds = %bb2 Index: test/CodeGen/AMDGPU/or.ll =================================================================== --- test/CodeGen/AMDGPU/or.ll +++ test/CodeGen/AMDGPU/or.ll @@ -159,8 +159,8 @@ define void @or_i1(i32 addrspace(1)* %out, float addrspace(1)* %in0, float addrspace(1)* %in1) { %a = load float, float addrspace(1)* %in0 %b = load float, float addrspace(1)* %in1 - %acmp = fcmp oge float %a, 0.000000e+00 - %bcmp = fcmp oge float %b, 0.000000e+00 + %acmp = fcmp oge float %a, 0.0e+00 + %bcmp = fcmp oge float %b, 0.0e+00 %or = or i1 %acmp, %bcmp %result = zext i1 %or to i32 store i32 %result, i32 addrspace(1)* %out Index: test/CodeGen/AMDGPU/predicate-dp4.ll =================================================================== --- test/CodeGen/AMDGPU/predicate-dp4.ll +++ test/CodeGen/AMDGPU/predicate-dp4.ll @@ -15,7 +15,7 @@ br label %ENDIF ENDIF: ; preds = %IF, %main_body - %5 = phi float [%4, %IF], [0.000000e+00, %main_body] + %5 = phi float [%4, %IF], [0.0e+00, %main_body] %6 = insertelement <4 x float> undef, float %5, i32 0 call void @llvm.R600.store.swizzle(<4 x float> %6, i32 0, i32 0) ret void Index: test/CodeGen/AMDGPU/pv.ll =================================================================== --- test/CodeGen/AMDGPU/pv.ll +++ test/CodeGen/AMDGPU/pv.ll @@ -96,11 +96,11 @@ %88 = insertelement <4 x float> undef, float %4, i32 0 %89 = insertelement <4 x float> %88, float %5, i32 1 %90 = insertelement <4 x float> %89, float %6, i32 2 - %91 = insertelement <4 x float> %90, float 0.000000e+00, i32 3 + %91 = insertelement <4 x float> %90, float 0.0e+00, i32 3 %92 = insertelement <4 x float> undef, float %4, i32 0 %93 = insertelement <4 x float> %92, float %5, i32 1 %94 = insertelement <4 x float> %93, float %6, i32 2 - %95 = insertelement <4 x float> %94, float 0.000000e+00, i32 3 + %95 = insertelement <4 x float> %94, float 0.0e+00, i32 3 %96 = call float @llvm.AMDGPU.dp4(<4 x float> %91, <4 x float> %95) %97 = call float @fabs(float %96) %98 = call float @llvm.AMDGPU.rsq.clamped.f32(float %97) @@ -119,10 +119,10 @@ %111 = extractelement <4 x float> %110, i32 2 %112 = fmul float %111, %10 %113 = fadd float %112, %22 - %114 = call float @llvm.AMDGPU.clamp.f32(float %105, float 0.000000e+00, float 1.000000e+00) - %115 = call float @llvm.AMDGPU.clamp.f32(float %109, float 0.000000e+00, float 1.000000e+00) - %116 = call float @llvm.AMDGPU.clamp.f32(float %113, float 0.000000e+00, float 1.000000e+00) - %117 = call float @llvm.AMDGPU.clamp.f32(float %15, float 0.000000e+00, float 1.000000e+00) + %114 = call float @llvm.AMDGPU.clamp.f32(float %105, float 0.0e+00, float 1.0e+00) + %115 = call float @llvm.AMDGPU.clamp.f32(float %109, float 0.0e+00, float 1.0e+00) + %116 = call float @llvm.AMDGPU.clamp.f32(float %113, float 0.0e+00, float 1.0e+00) + %117 = call float @llvm.AMDGPU.clamp.f32(float %15, float 0.0e+00, float 1.0e+00) %118 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 5) %119 = extractelement <4 x float> %118, i32 0 %120 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 5) @@ -132,11 +132,11 @@ %124 = insertelement <4 x float> undef, float %99, i32 0 %125 = insertelement <4 x float> %124, float %100, i32 1 %126 = insertelement <4 x float> %125, float %101, i32 2 - %127 = insertelement <4 x float> %126, float 0.000000e+00, i32 3 + %127 = insertelement <4 x float> %126, float 0.0e+00, i32 3 %128 = insertelement <4 x float> undef, float %119, i32 0 %129 = insertelement <4 x float> %128, float %121, i32 1 %130 = insertelement <4 x float> %129, float %123, i32 2 - %131 = insertelement <4 x float> %130, float 0.000000e+00, i32 3 + %131 = insertelement <4 x float> %130, float 0.0e+00, i32 3 %132 = call float @llvm.AMDGPU.dp4(<4 x float> %127, <4 x float> %131) %133 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 7) %134 = extractelement <4 x float> %133, i32 0 @@ -147,11 +147,11 @@ %139 = insertelement <4 x float> undef, float %99, i32 0 %140 = insertelement <4 x float> %139, float %100, i32 1 %141 = insertelement <4 x float> %140, float %101, i32 2 - %142 = insertelement <4 x float> %141, float 0.000000e+00, i32 3 + %142 = insertelement <4 x float> %141, float 0.0e+00, i32 3 %143 = insertelement <4 x float> undef, float %134, i32 0 %144 = insertelement <4 x float> %143, float %136, i32 1 %145 = insertelement <4 x float> %144, float %138, i32 2 - %146 = insertelement <4 x float> %145, float 0.000000e+00, i32 3 + %146 = insertelement <4 x float> %145, float 0.0e+00, i32 3 %147 = call float @llvm.AMDGPU.dp4(<4 x float> %142, <4 x float> %146) %148 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 8) %149 = extractelement <4 x float> %148, i32 0 @@ -180,13 +180,13 @@ %172 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 10) %173 = extractelement <4 x float> %172, i32 2 %174 = fmul float %173, %18 - %175 = fcmp uge float %132, 0.000000e+00 - %176 = select i1 %175, float %132, float 0.000000e+00 - %177 = fcmp uge float %147, 0.000000e+00 - %178 = select i1 %177, float %147, float 0.000000e+00 + %175 = fcmp uge float %132, 0.0e+00 + %176 = select i1 %175, float %132, float 0.0e+00 + %177 = fcmp uge float %147, 0.0e+00 + %178 = select i1 %177, float %147, float 0.0e+00 %179 = call float @llvm.pow.f32(float %178, float %24) - %180 = fcmp ult float %132, 0.000000e+00 - %181 = select i1 %180, float 0.000000e+00, float %179 + %180 = fcmp ult float %132, 0.0e+00 + %181 = select i1 %180, float 0.0e+00, float %179 %182 = fadd float %150, %105 %183 = fadd float %153, %109 %184 = fadd float %156, %113 @@ -202,9 +202,9 @@ %194 = fadd float %193, %188 %195 = fmul float %181, %174 %196 = fadd float %195, %190 - %197 = call float @llvm.AMDGPU.clamp.f32(float %192, float 0.000000e+00, float 1.000000e+00) - %198 = call float @llvm.AMDGPU.clamp.f32(float %194, float 0.000000e+00, float 1.000000e+00) - %199 = call float @llvm.AMDGPU.clamp.f32(float %196, float 0.000000e+00, float 1.000000e+00) + %197 = call float @llvm.AMDGPU.clamp.f32(float %192, float 0.0e+00, float 1.0e+00) + %198 = call float @llvm.AMDGPU.clamp.f32(float %194, float 0.0e+00, float 1.0e+00) + %199 = call float @llvm.AMDGPU.clamp.f32(float %196, float 0.0e+00, float 1.0e+00) %200 = insertelement <4 x float> undef, float %75, i32 0 %201 = insertelement <4 x float> %200, float %79, i32 1 %202 = insertelement <4 x float> %201, float %83, i32 2 Index: test/CodeGen/AMDGPU/r600-export-fix.ll =================================================================== --- test/CodeGen/AMDGPU/r600-export-fix.ll +++ test/CodeGen/AMDGPU/r600-export-fix.ll @@ -99,17 +99,17 @@ %84 = insertelement <4 x float> %83, float %59, i32 2 %85 = insertelement <4 x float> %84, float %63, i32 3 call void @llvm.R600.store.swizzle(<4 x float> %85, i32 60, i32 1) - %86 = insertelement <4 x float> undef, float 0.000000e+00, i32 0 - %87 = insertelement <4 x float> %86, float 0.000000e+00, i32 1 - %88 = insertelement <4 x float> %87, float 0.000000e+00, i32 2 - %89 = insertelement <4 x float> %88, float 0.000000e+00, i32 3 + %86 = insertelement <4 x float> undef, float 0.0e+00, i32 0 + %87 = insertelement <4 x float> %86, float 0.0e+00, i32 1 + %88 = insertelement <4 x float> %87, float 0.0e+00, i32 2 + %89 = insertelement <4 x float> %88, float 0.0e+00, i32 3 call void @llvm.R600.store.swizzle(<4 x float> %89, i32 0, i32 2) - %90 = insertelement <4 x float> undef, float 0.000000e+00, i32 0 - %91 = insertelement <4 x float> %90, float 0.000000e+00, i32 1 - %92 = insertelement <4 x float> %91, float 0.000000e+00, i32 2 - %93 = insertelement <4 x float> %92, float 0.000000e+00, i32 3 + %90 = insertelement <4 x float> undef, float 0.0e+00, i32 0 + %91 = insertelement <4 x float> %90, float 0.0e+00, i32 1 + %92 = insertelement <4 x float> %91, float 0.0e+00, i32 2 + %93 = insertelement <4 x float> %92, float 0.0e+00, i32 3 call void @llvm.R600.store.swizzle(<4 x float> %93, i32 1, i32 2) - %94 = insertelement <4 x float> undef, float 0.000000e+00, i32 0 + %94 = insertelement <4 x float> undef, float 0.0e+00, i32 0 %95 = insertelement <4 x float> %94, float %65, i32 1 %96 = insertelement <4 x float> %95, float %67, i32 2 %97 = insertelement <4 x float> %96, float %69, i32 3 @@ -121,18 +121,18 @@ call void @llvm.R600.store.swizzle(<4 x float> %101, i32 3, i32 2) %102 = insertelement <4 x float> undef, float %73, i32 0 %103 = insertelement <4 x float> %102, float %75, i32 1 - %104 = insertelement <4 x float> %103, float 0.000000e+00, i32 2 - %105 = insertelement <4 x float> %104, float 0.000000e+00, i32 3 + %104 = insertelement <4 x float> %103, float 0.0e+00, i32 2 + %105 = insertelement <4 x float> %104, float 0.0e+00, i32 3 call void @llvm.R600.store.swizzle(<4 x float> %105, i32 4, i32 2) - %106 = insertelement <4 x float> undef, float 0.000000e+00, i32 0 - %107 = insertelement <4 x float> %106, float 0.000000e+00, i32 1 - %108 = insertelement <4 x float> %107, float 0.000000e+00, i32 2 - %109 = insertelement <4 x float> %108, float 0.000000e+00, i32 3 + %106 = insertelement <4 x float> undef, float 0.0e+00, i32 0 + %107 = insertelement <4 x float> %106, float 0.0e+00, i32 1 + %108 = insertelement <4 x float> %107, float 0.0e+00, i32 2 + %109 = insertelement <4 x float> %108, float 0.0e+00, i32 3 call void @llvm.R600.store.swizzle(<4 x float> %109, i32 5, i32 2) - %110 = insertelement <4 x float> undef, float 0.000000e+00, i32 0 - %111 = insertelement <4 x float> %110, float 0.000000e+00, i32 1 - %112 = insertelement <4 x float> %111, float 0.000000e+00, i32 2 - %113 = insertelement <4 x float> %112, float 0.000000e+00, i32 3 + %110 = insertelement <4 x float> undef, float 0.0e+00, i32 0 + %111 = insertelement <4 x float> %110, float 0.0e+00, i32 1 + %112 = insertelement <4 x float> %111, float 0.0e+00, i32 2 + %113 = insertelement <4 x float> %112, float 0.0e+00, i32 3 call void @llvm.R600.store.swizzle(<4 x float> %113, i32 6, i32 2) ret void } Index: test/CodeGen/AMDGPU/r600-infinite-loop-bug-while-reorganizing-vector.ll =================================================================== --- test/CodeGen/AMDGPU/r600-infinite-loop-bug-while-reorganizing-vector.ll +++ test/CodeGen/AMDGPU/r600-infinite-loop-bug-while-reorganizing-vector.ll @@ -16,11 +16,11 @@ %13 = extractelement <4 x float> %10, i32 2 %14 = extractelement <4 x float> %10, i32 3 %15 = call float @fabs(float %13) - %16 = fdiv float 1.000000e+00, %15 + %16 = fdiv float 1.0e+00, %15 %17 = fmul float %11, %16 - %18 = fadd float %17, 1.500000e+00 + %18 = fadd float %17, 1.5e+00 %19 = fmul float %12, %16 - %20 = fadd float %19, 1.500000e+00 + %20 = fadd float %19, 1.5e+00 %21 = insertelement <4 x float> undef, float %20, i32 0 %22 = insertelement <4 x float> %21, float %18, i32 1 %23 = insertelement <4 x float> %22, float %14, i32 2 @@ -38,7 +38,7 @@ %35 = insertelement <4 x float> undef, float %34, i32 0 %36 = insertelement <4 x float> %35, float %34, i32 1 %37 = insertelement <4 x float> %36, float %34, i32 2 - %38 = insertelement <4 x float> %37, float 1.000000e+00, i32 3 + %38 = insertelement <4 x float> %37, float 1.0e+00, i32 3 call void @llvm.R600.store.swizzle(<4 x float> %38, i32 0, i32 0) ret void } Index: test/CodeGen/AMDGPU/r600cfg.ll =================================================================== --- test/CodeGen/AMDGPU/r600cfg.ll +++ test/CodeGen/AMDGPU/r600cfg.ll @@ -17,7 +17,7 @@ LOOP: ; preds = %LOOP47, %main_body %temp12.0 = phi float [ 0x36A0000000000000, %main_body ], [ %temp12.1, %LOOP47 ] - %temp8.0 = phi float [ 0.000000e+00, %main_body ], [ %38, %LOOP47 ] + %temp8.0 = phi float [ 0.0e+00, %main_body ], [ %38, %LOOP47 ] %temp4.1 = phi float [ %., %main_body ], [ %52, %LOOP47 ] %10 = bitcast float %temp4.1 to i32 %11 = icmp eq i32 %10, 1 @@ -31,27 +31,27 @@ %16 = insertelement <4 x float> undef, float %0, i32 0 %17 = insertelement <4 x float> %16, float %temp8.0, i32 1 %18 = insertelement <4 x float> %17, float %temp12.0, i32 2 - %19 = insertelement <4 x float> %18, float 0.000000e+00, i32 3 + %19 = insertelement <4 x float> %18, float 0.0e+00, i32 3 call void @llvm.R600.store.stream.output(<4 x float> %19, i32 0, i32 0, i32 1) %20 = insertelement <4 x float> undef, float %0, i32 0 %21 = insertelement <4 x float> %20, float %temp8.0, i32 1 %22 = insertelement <4 x float> %21, float %temp12.0, i32 2 - %23 = insertelement <4 x float> %22, float 0.000000e+00, i32 3 + %23 = insertelement <4 x float> %22, float 0.0e+00, i32 3 call void @llvm.R600.store.stream.output(<4 x float> %23, i32 0, i32 0, i32 2) %24 = insertelement <4 x float> undef, float %0, i32 0 %25 = insertelement <4 x float> %24, float %temp8.0, i32 1 %26 = insertelement <4 x float> %25, float %temp12.0, i32 2 - %27 = insertelement <4 x float> %26, float 0.000000e+00, i32 3 + %27 = insertelement <4 x float> %26, float 0.0e+00, i32 3 call void @llvm.R600.store.stream.output(<4 x float> %27, i32 0, i32 0, i32 4) - %28 = insertelement <4 x float> undef, float 0.000000e+00, i32 0 - %29 = insertelement <4 x float> %28, float 0.000000e+00, i32 1 - %30 = insertelement <4 x float> %29, float 0.000000e+00, i32 2 - %31 = insertelement <4 x float> %30, float 0.000000e+00, i32 3 + %28 = insertelement <4 x float> undef, float 0.0e+00, i32 0 + %29 = insertelement <4 x float> %28, float 0.0e+00, i32 1 + %30 = insertelement <4 x float> %29, float 0.0e+00, i32 2 + %31 = insertelement <4 x float> %30, float 0.0e+00, i32 3 call void @llvm.R600.store.swizzle(<4 x float> %31, i32 60, i32 1) %32 = insertelement <4 x float> undef, float %0, i32 0 %33 = insertelement <4 x float> %32, float %temp8.0, i32 1 %34 = insertelement <4 x float> %33, float %temp12.0, i32 2 - %35 = insertelement <4 x float> %34, float 0.000000e+00, i32 3 + %35 = insertelement <4 x float> %34, float 0.0e+00, i32 3 call void @llvm.R600.store.swizzle(<4 x float> %35, i32 0, i32 2) ret void @@ -90,7 +90,7 @@ LOOP47: ; preds = %ENDIF48, %ENDIF43 %temp12.1 = phi float [ %temp12.0, %ENDIF43 ], [ %67, %ENDIF48 ] - %temp28.0 = phi float [ 0.000000e+00, %ENDIF43 ], [ %70, %ENDIF48 ] + %temp28.0 = phi float [ 0.0e+00, %ENDIF43 ], [ %70, %ENDIF48 ] %56 = bitcast float %temp28.0 to i32 %57 = icmp uge i32 %56, %55 %58 = sext i1 %57 to i32 Index: test/CodeGen/AMDGPU/schedule-fs-loop-nested-if.ll =================================================================== --- test/CodeGen/AMDGPU/schedule-fs-loop-nested-if.ll +++ test/CodeGen/AMDGPU/schedule-fs-loop-nested-if.ll @@ -7,14 +7,14 @@ %1 = extractelement <4 x float> %reg1, i32 1 %2 = extractelement <4 x float> %reg1, i32 2 %3 = extractelement <4 x float> %reg1, i32 3 - %4 = fcmp ult float %1, 0.000000e+00 - %5 = select i1 %4, float 1.000000e+00, float 0.000000e+00 - %6 = fsub float -0.000000e+00, %5 + %4 = fcmp ult float %1, 0.0e+00 + %5 = select i1 %4, float 1.0e+00, float 0.0e+00 + %6 = fsub float -0.0e+00, %5 %7 = fptosi float %6 to i32 %8 = bitcast i32 %7 to float - %9 = fcmp ult float %0, 5.700000e+01 - %10 = select i1 %9, float 1.000000e+00, float 0.000000e+00 - %11 = fsub float -0.000000e+00, %10 + %9 = fcmp ult float %0, 5.7e+01 + %10 = select i1 %9, float 1.0e+00, float 0.0e+00 + %11 = fsub float -0.0e+00, %10 %12 = fptosi float %11 to i32 %13 = bitcast i32 %12 to float %14 = bitcast float %8 to i32 @@ -23,9 +23,9 @@ %17 = bitcast i32 %16 to float %18 = bitcast float %17 to i32 %19 = icmp ne i32 %18, 0 - %20 = fcmp ult float %0, 0.000000e+00 - %21 = select i1 %20, float 1.000000e+00, float 0.000000e+00 - %22 = fsub float -0.000000e+00, %21 + %20 = fcmp ult float %0, 0.0e+00 + %21 = select i1 %20, float 1.0e+00, float 0.0e+00 + %22 = fsub float -0.0e+00, %21 %23 = fptosi float %22 to i32 %24 = bitcast i32 %23 to float %25 = bitcast float %24 to i32 @@ -33,21 +33,21 @@ br i1 %19, label %IF, label %ELSE IF: ; preds = %main_body - %. = select i1 %26, float 0.000000e+00, float 1.000000e+00 - %.18 = select i1 %26, float 1.000000e+00, float 0.000000e+00 + %. = select i1 %26, float 0.0e+00, float 1.0e+00 + %.18 = select i1 %26, float 1.0e+00, float 0.0e+00 br label %ENDIF ELSE: ; preds = %main_body br i1 %26, label %ENDIF, label %ELSE17 ENDIF: ; preds = %ELSE17, %ELSE, %IF - %temp1.0 = phi float [ %., %IF ], [ %48, %ELSE17 ], [ 0.000000e+00, %ELSE ] - %temp2.0 = phi float [ 0.000000e+00, %IF ], [ %49, %ELSE17 ], [ 1.000000e+00, %ELSE ] - %temp.0 = phi float [ %.18, %IF ], [ %47, %ELSE17 ], [ 0.000000e+00, %ELSE ] - %27 = call float @llvm.AMDGPU.clamp.f32(float %temp.0, float 0.000000e+00, float 1.000000e+00) - %28 = call float @llvm.AMDGPU.clamp.f32(float %temp1.0, float 0.000000e+00, float 1.000000e+00) - %29 = call float @llvm.AMDGPU.clamp.f32(float %temp2.0, float 0.000000e+00, float 1.000000e+00) - %30 = call float @llvm.AMDGPU.clamp.f32(float 1.000000e+00, float 0.000000e+00, float 1.000000e+00) + %temp1.0 = phi float [ %., %IF ], [ %48, %ELSE17 ], [ 0.0e+00, %ELSE ] + %temp2.0 = phi float [ 0.0e+00, %IF ], [ %49, %ELSE17 ], [ 1.0e+00, %ELSE ] + %temp.0 = phi float [ %.18, %IF ], [ %47, %ELSE17 ], [ 0.0e+00, %ELSE ] + %27 = call float @llvm.AMDGPU.clamp.f32(float %temp.0, float 0.0e+00, float 1.0e+00) + %28 = call float @llvm.AMDGPU.clamp.f32(float %temp1.0, float 0.0e+00, float 1.0e+00) + %29 = call float @llvm.AMDGPU.clamp.f32(float %temp2.0, float 0.0e+00, float 1.0e+00) + %30 = call float @llvm.AMDGPU.clamp.f32(float 1.0e+00, float 0.0e+00, float 1.0e+00) %31 = insertelement <4 x float> undef, float %27, i32 0 %32 = insertelement <4 x float> %31, float %28, i32 1 %33 = insertelement <4 x float> %32, float %29, i32 2 @@ -56,9 +56,9 @@ ret void ELSE17: ; preds = %ELSE - %35 = fadd float 0.000000e+00, 0x3FC99999A0000000 - %36 = fadd float 0.000000e+00, 0x3FC99999A0000000 - %37 = fadd float 0.000000e+00, 0x3FC99999A0000000 + %35 = fadd float 0.0e+00, 0x3FC99999A0000000 + %36 = fadd float 0.0e+00, 0x3FC99999A0000000 + %37 = fadd float 0.0e+00, 0x3FC99999A0000000 %38 = fadd float %35, 0x3FC99999A0000000 %39 = fadd float %36, 0x3FC99999A0000000 %40 = fadd float %37, 0x3FC99999A0000000 Index: test/CodeGen/AMDGPU/schedule-fs-loop-nested.ll =================================================================== --- test/CodeGen/AMDGPU/schedule-fs-loop-nested.ll +++ test/CodeGen/AMDGPU/schedule-fs-loop-nested.ll @@ -29,7 +29,7 @@ br label %LOOP LOOP: ; preds = %IF31, %main_body - %temp12.0 = phi float [ 0.000000e+00, %main_body ], [ %47, %IF31 ] + %temp12.0 = phi float [ 0.0e+00, %main_body ], [ %47, %IF31 ] %temp6.0 = phi float [ %22, %main_body ], [ %temp6.1, %IF31 ] %temp5.0 = phi float [ %20, %main_body ], [ %temp5.1, %IF31 ] %temp4.0 = phi float [ %18, %main_body ], [ %temp4.1, %IF31 ] @@ -43,10 +43,10 @@ br i1 %29, label %IF, label %LOOP29 IF: ; preds = %LOOP - %30 = call float @llvm.AMDGPU.clamp.f32(float %temp4.0, float 0.000000e+00, float 1.000000e+00) - %31 = call float @llvm.AMDGPU.clamp.f32(float %temp5.0, float 0.000000e+00, float 1.000000e+00) - %32 = call float @llvm.AMDGPU.clamp.f32(float %temp6.0, float 0.000000e+00, float 1.000000e+00) - %33 = call float @llvm.AMDGPU.clamp.f32(float 1.000000e+00, float 0.000000e+00, float 1.000000e+00) + %30 = call float @llvm.AMDGPU.clamp.f32(float %temp4.0, float 0.0e+00, float 1.0e+00) + %31 = call float @llvm.AMDGPU.clamp.f32(float %temp5.0, float 0.0e+00, float 1.0e+00) + %32 = call float @llvm.AMDGPU.clamp.f32(float %temp6.0, float 0.0e+00, float 1.0e+00) + %33 = call float @llvm.AMDGPU.clamp.f32(float 1.0e+00, float 0.0e+00, float 1.0e+00) %34 = insertelement <4 x float> undef, float %30, i32 0 %35 = insertelement <4 x float> %34, float %31, i32 1 %36 = insertelement <4 x float> %35, float %32, i32 2 @@ -58,7 +58,7 @@ %temp6.1 = phi float [ %temp4.1, %ENDIF30 ], [ %temp6.0, %LOOP ] %temp5.1 = phi float [ %temp6.1, %ENDIF30 ], [ %temp5.0, %LOOP ] %temp4.1 = phi float [ %temp5.1, %ENDIF30 ], [ %temp4.0, %LOOP ] - %temp20.0 = phi float [ %50, %ENDIF30 ], [ 0.000000e+00, %LOOP ] + %temp20.0 = phi float [ %50, %ENDIF30 ], [ 0.0e+00, %LOOP ] %38 = bitcast float %temp20.0 to i32 %39 = bitcast float %16 to i32 %40 = icmp sge i32 %38, %39 Index: test/CodeGen/AMDGPU/schedule-fs-loop.ll =================================================================== --- test/CodeGen/AMDGPU/schedule-fs-loop.ll +++ test/CodeGen/AMDGPU/schedule-fs-loop.ll @@ -19,7 +19,7 @@ %temp4.0 = phi float [ %5, %main_body ], [ %temp5.0, %ENDIF ] %temp5.0 = phi float [ %7, %main_body ], [ %temp6.0, %ENDIF ] %temp6.0 = phi float [ %9, %main_body ], [ %temp4.0, %ENDIF ] - %temp8.0 = phi float [ 0.000000e+00, %main_body ], [ %27, %ENDIF ] + %temp8.0 = phi float [ 0.0e+00, %main_body ], [ %27, %ENDIF ] %10 = bitcast float %temp8.0 to i32 %11 = bitcast float %3 to i32 %12 = icmp sge i32 %10, %11 @@ -30,10 +30,10 @@ br i1 %16, label %IF, label %ENDIF IF: ; preds = %LOOP - %17 = call float @llvm.AMDGPU.clamp.f32(float %temp4.0, float 0.000000e+00, float 1.000000e+00) - %18 = call float @llvm.AMDGPU.clamp.f32(float %temp5.0, float 0.000000e+00, float 1.000000e+00) - %19 = call float @llvm.AMDGPU.clamp.f32(float %temp6.0, float 0.000000e+00, float 1.000000e+00) - %20 = call float @llvm.AMDGPU.clamp.f32(float 1.000000e+00, float 0.000000e+00, float 1.000000e+00) + %17 = call float @llvm.AMDGPU.clamp.f32(float %temp4.0, float 0.0e+00, float 1.0e+00) + %18 = call float @llvm.AMDGPU.clamp.f32(float %temp5.0, float 0.0e+00, float 1.0e+00) + %19 = call float @llvm.AMDGPU.clamp.f32(float %temp6.0, float 0.0e+00, float 1.0e+00) + %20 = call float @llvm.AMDGPU.clamp.f32(float 1.0e+00, float 0.0e+00, float 1.0e+00) %21 = insertelement <4 x float> undef, float %17, i32 0 %22 = insertelement <4 x float> %21, float %18, i32 1 %23 = insertelement <4 x float> %22, float %19, i32 2 Index: test/CodeGen/AMDGPU/schedule-if-2.ll =================================================================== --- test/CodeGen/AMDGPU/schedule-if-2.ll +++ test/CodeGen/AMDGPU/schedule-if-2.ll @@ -5,7 +5,7 @@ main_body: %0 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 2) %1 = extractelement <4 x float> %0, i32 0 - %2 = fadd float 1.000000e+03, %1 + %2 = fadd float 1.0e+03, %1 %3 = load <4 x float>, <4 x float> addrspace(8)* getelementptr ([1024 x <4 x float>], [1024 x <4 x float>] addrspace(8)* null, i64 0, i32 1) %4 = extractelement <4 x float> %3, i32 0 %5 = bitcast float %4 to i32 @@ -19,31 +19,31 @@ IF: ; preds = %main_body %11 = call float @fabs(float %2) %12 = fcmp ueq float %11, 0x7FF0000000000000 - %13 = select i1 %12, float 1.000000e+00, float 0.000000e+00 - %14 = fsub float -0.000000e+00, %13 + %13 = select i1 %12, float 1.0e+00, float 0.0e+00 + %14 = fsub float -0.0e+00, %13 %15 = fptosi float %14 to i32 %16 = bitcast i32 %15 to float %17 = bitcast float %16 to i32 %18 = icmp ne i32 %17, 0 - %. = select i1 %18, float 0x36A0000000000000, float 0.000000e+00 + %. = select i1 %18, float 0x36A0000000000000, float 0.0e+00 %19 = fcmp une float %2, %2 - %20 = select i1 %19, float 1.000000e+00, float 0.000000e+00 - %21 = fsub float -0.000000e+00, %20 + %20 = select i1 %19, float 1.0e+00, float 0.0e+00 + %21 = fsub float -0.0e+00, %20 %22 = fptosi float %21 to i32 %23 = bitcast i32 %22 to float %24 = bitcast float %23 to i32 %25 = icmp ne i32 %24, 0 - %temp8.0 = select i1 %25, float 0x36A0000000000000, float 0.000000e+00 + %temp8.0 = select i1 %25, float 0x36A0000000000000, float 0.0e+00 %26 = bitcast float %. to i32 %27 = sitofp i32 %26 to float %28 = bitcast float %temp8.0 to i32 %29 = sitofp i32 %28 to float - %30 = fcmp ugt float %2, 0.000000e+00 - %31 = select i1 %30, float 1.000000e+00, float %2 - %32 = fcmp uge float %31, 0.000000e+00 - %33 = select i1 %32, float %31, float -1.000000e+00 - %34 = fadd float %33, 1.000000e+00 - %35 = fmul float %34, 5.000000e-01 + %30 = fcmp ugt float %2, 0.0e+00 + %31 = select i1 %30, float 1.0e+00, float %2 + %32 = fcmp uge float %31, 0.0e+00 + %33 = select i1 %32, float %31, float -1.0e+00 + %34 = fadd float %33, 1.0e+00 + %35 = fmul float %34, 5.0e-01 br label %ENDIF ELSE: ; preds = %main_body @@ -58,10 +58,10 @@ br i1 %43, label %IF23, label %ENDIF ENDIF: ; preds = %IF23, %ELSE, %IF - %temp4.0 = phi float [ %2, %IF ], [ %56, %IF23 ], [ 0.000000e+00, %ELSE ] - %temp5.0 = phi float [ %27, %IF ], [ %60, %IF23 ], [ 0.000000e+00, %ELSE ] - %temp6.0 = phi float [ %29, %IF ], [ 0.000000e+00, %ELSE ], [ 0.000000e+00, %IF23 ] - %temp7.0 = phi float [ %35, %IF ], [ 0.000000e+00, %ELSE ], [ 0.000000e+00, %IF23 ] + %temp4.0 = phi float [ %2, %IF ], [ %56, %IF23 ], [ 0.0e+00, %ELSE ] + %temp5.0 = phi float [ %27, %IF ], [ %60, %IF23 ], [ 0.0e+00, %ELSE ] + %temp6.0 = phi float [ %29, %IF ], [ 0.0e+00, %ELSE ], [ 0.0e+00, %IF23 ] + %temp7.0 = phi float [ %35, %IF ], [ 0.0e+00, %ELSE ], [ 0.0e+00, %IF23 ] %44 = insertelement <4 x float> undef, float %temp4.0, i32 0 %45 = insertelement <4 x float> %44, float %temp5.0, i32 1 %46 = insertelement <4 x float> %45, float %temp6.0, i32 2 @@ -70,19 +70,19 @@ ret void IF23: ; preds = %ELSE - %48 = fcmp ult float 0.000000e+00, %2 - %49 = select i1 %48, float 1.000000e+00, float 0.000000e+00 - %50 = fsub float -0.000000e+00, %49 + %48 = fcmp ult float 0.0e+00, %2 + %49 = select i1 %48, float 1.0e+00, float 0.0e+00 + %50 = fsub float -0.0e+00, %49 %51 = fptosi float %50 to i32 %52 = bitcast i32 %51 to float %53 = bitcast float %52 to i32 %54 = icmp ne i32 %53, 0 - %.28 = select i1 %54, float 0x36A0000000000000, float 0.000000e+00 + %.28 = select i1 %54, float 0x36A0000000000000, float 0.0e+00 %55 = bitcast float %.28 to i32 %56 = sitofp i32 %55 to float %57 = load <4 x float>, <4 x float> addrspace(8)* null %58 = extractelement <4 x float> %57, i32 0 - %59 = fsub float -0.000000e+00, %58 + %59 = fsub float -0.0e+00, %58 %60 = fadd float %2, %59 br label %ENDIF } Index: test/CodeGen/AMDGPU/schedule-if.ll =================================================================== --- test/CodeGen/AMDGPU/schedule-if.ll +++ test/CodeGen/AMDGPU/schedule-if.ll @@ -25,12 +25,12 @@ br i1 %15, label %IF13, label %ENDIF ENDIF: ; preds = %IF13, %ELSE, %main_body - %temp.0 = phi float [ 1.000000e+03, %main_body ], [ 1.000000e+00, %IF13 ], [ 0.000000e+00, %ELSE ] - %temp1.0 = phi float [ 0.000000e+00, %main_body ], [ %23, %IF13 ], [ 0.000000e+00, %ELSE ] - %temp3.0 = phi float [ 1.000000e+00, %main_body ], [ 0.000000e+00, %ELSE ], [ 0.000000e+00, %IF13 ] + %temp.0 = phi float [ 1.0e+03, %main_body ], [ 1.0e+00, %IF13 ], [ 0.0e+00, %ELSE ] + %temp1.0 = phi float [ 0.0e+00, %main_body ], [ %23, %IF13 ], [ 0.0e+00, %ELSE ] + %temp3.0 = phi float [ 1.0e+00, %main_body ], [ 0.0e+00, %ELSE ], [ 0.0e+00, %IF13 ] %16 = insertelement <4 x float> undef, float %temp.0, i32 0 %17 = insertelement <4 x float> %16, float %temp1.0, i32 1 - %18 = insertelement <4 x float> %17, float 0.000000e+00, i32 2 + %18 = insertelement <4 x float> %17, float 0.0e+00, i32 2 %19 = insertelement <4 x float> %18, float %temp3.0, i32 3 call void @llvm.R600.store.swizzle(<4 x float> %19, i32 0, i32 0) ret void @@ -38,8 +38,8 @@ IF13: ; preds = %ELSE %20 = load <4 x float>, <4 x float> addrspace(8)* null %21 = extractelement <4 x float> %20, i32 0 - %22 = fsub float -0.000000e+00, %21 - %23 = fadd float 1.000000e+03, %22 + %22 = fsub float -0.0e+00, %21 + %23 = fadd float 1.0e+03, %22 br label %ENDIF } Index: test/CodeGen/AMDGPU/schedule-vs-if-nested-loop-failure.ll =================================================================== --- test/CodeGen/AMDGPU/schedule-vs-if-nested-loop-failure.ll +++ test/CodeGen/AMDGPU/schedule-vs-if-nested-loop-failure.ll @@ -11,9 +11,9 @@ main_body: %0 = extractelement <4 x float> %reg1, i32 0 %1 = extractelement <4 x float> %reg1, i32 2 - %2 = fcmp ult float %0, 0.000000e+00 - %3 = select i1 %2, float 1.000000e+00, float 0.000000e+00 - %4 = fsub float -0.000000e+00, %3 + %2 = fcmp ult float %0, 0.0e+00 + %3 = select i1 %2, float 1.0e+00, float 0.0e+00 + %4 = fsub float -0.0e+00, %3 %5 = fptosi float %4 to i32 %6 = bitcast i32 %5 to float %7 = bitcast float %6 to i32 @@ -33,10 +33,10 @@ br label %ENDIF ENDIF: ; preds = %main_body, %Flow2 - %temp.0 = phi float [ 0.000000e+00, %main_body ], [ %104, %Flow2 ] - %temp1.0 = phi float [ 1.000000e+00, %main_body ], [ %103, %Flow2 ] - %temp2.0 = phi float [ 0.000000e+00, %main_body ], [ %102, %Flow2 ] - %temp3.0 = phi float [ 0.000000e+00, %main_body ], [ %101, %Flow2 ] + %temp.0 = phi float [ 0.0e+00, %main_body ], [ %104, %Flow2 ] + %temp1.0 = phi float [ 1.0e+00, %main_body ], [ %103, %Flow2 ] + %temp2.0 = phi float [ 0.0e+00, %main_body ], [ %102, %Flow2 ] + %temp3.0 = phi float [ 0.0e+00, %main_body ], [ %101, %Flow2 ] %15 = extractelement <4 x float> %reg1, i32 1 %16 = extractelement <4 x float> %reg1, i32 3 %17 = load <4 x float>, <4 x float> addrspace(9)* null @@ -112,14 +112,14 @@ ret void LOOP: ; preds = %main_body, %Flow - %temp.1 = phi float [ %109, %Flow ], [ 0.000000e+00, %main_body ] - %temp1.1 = phi float [ %108, %Flow ], [ 1.000000e+00, %main_body ] - %temp2.1 = phi float [ %107, %Flow ], [ 0.000000e+00, %main_body ] - %temp3.1 = phi float [ %106, %Flow ], [ 0.000000e+00, %main_body ] - %temp4.0 = phi float [ %105, %Flow ], [ -2.000000e+00, %main_body ] + %temp.1 = phi float [ %109, %Flow ], [ 0.0e+00, %main_body ] + %temp1.1 = phi float [ %108, %Flow ], [ 1.0e+00, %main_body ] + %temp2.1 = phi float [ %107, %Flow ], [ 0.0e+00, %main_body ] + %temp3.1 = phi float [ %106, %Flow ], [ 0.0e+00, %main_body ] + %temp4.0 = phi float [ %105, %Flow ], [ -2.0e+00, %main_body ] %85 = fcmp uge float %temp4.0, %0 - %86 = select i1 %85, float 1.000000e+00, float 0.000000e+00 - %87 = fsub float -0.000000e+00, %86 + %86 = select i1 %85, float 1.0e+00, float 0.0e+00 + %87 = fsub float -0.0e+00, %86 %88 = fptosi float %87 to i32 %89 = bitcast i32 %88 to float %90 = bitcast float %89 to i32 @@ -129,8 +129,8 @@ ENDIF16: ; preds = %LOOP %93 = fcmp une float %1, %temp4.0 - %94 = select i1 %93, float 1.000000e+00, float 0.000000e+00 - %95 = fsub float -0.000000e+00, %94 + %94 = select i1 %93, float 1.0e+00, float 0.0e+00 + %95 = fsub float -0.0e+00, %94 %96 = fptosi float %95 to i32 %97 = bitcast i32 %96 to float %98 = bitcast float %97 to i32 @@ -152,11 +152,11 @@ br i1 %110, label %Flow2, label %LOOP ENDIF19: ; preds = %ENDIF16 - %111 = fadd float %temp.1, 1.000000e+00 - %112 = fadd float %temp1.1, 0.000000e+00 - %113 = fadd float %temp2.1, 0.000000e+00 - %114 = fadd float %temp3.1, 0.000000e+00 - %115 = fadd float %temp4.0, 1.000000e+00 + %111 = fadd float %temp.1, 1.0e+00 + %112 = fadd float %temp1.1, 0.0e+00 + %113 = fadd float %temp2.1, 0.0e+00 + %114 = fadd float %temp3.1, 0.0e+00 + %115 = fadd float %temp4.0, 1.0e+00 br label %Flow1 } Index: test/CodeGen/AMDGPU/schedule-vs-if-nested-loop.ll =================================================================== --- test/CodeGen/AMDGPU/schedule-vs-if-nested-loop.ll +++ test/CodeGen/AMDGPU/schedule-vs-if-nested-loop.ll @@ -7,9 +7,9 @@ %1 = extractelement <4 x float> %reg1, i32 1 %2 = extractelement <4 x float> %reg1, i32 2 %3 = extractelement <4 x float> %reg1, i32 3 - %4 = fcmp ult float %0, 0.000000e+00 - %5 = select i1 %4, float 1.000000e+00, float 0.000000e+00 - %6 = fsub float -0.000000e+00, %5 + %4 = fcmp ult float %0, 0.0e+00 + %5 = select i1 %4, float 1.0e+00, float 0.0e+00 + %6 = fsub float -0.0e+00, %5 %7 = fptosi float %6 to i32 %8 = bitcast i32 %7 to float %9 = bitcast float %8 to i32 @@ -17,10 +17,10 @@ br i1 %10, label %LOOP, label %ENDIF ENDIF: ; preds = %ENDIF16, %LOOP, %main_body - %temp.0 = phi float [ 0.000000e+00, %main_body ], [ %temp.1, %LOOP ], [ %temp.1, %ENDIF16 ] - %temp1.0 = phi float [ 1.000000e+00, %main_body ], [ %temp1.1, %LOOP ], [ %temp1.1, %ENDIF16 ] - %temp2.0 = phi float [ 0.000000e+00, %main_body ], [ %temp2.1, %LOOP ], [ %temp2.1, %ENDIF16 ] - %temp3.0 = phi float [ 0.000000e+00, %main_body ], [ %temp3.1, %LOOP ], [ %temp3.1, %ENDIF16 ] + %temp.0 = phi float [ 0.0e+00, %main_body ], [ %temp.1, %LOOP ], [ %temp.1, %ENDIF16 ] + %temp1.0 = phi float [ 1.0e+00, %main_body ], [ %temp1.1, %LOOP ], [ %temp1.1, %ENDIF16 ] + %temp2.0 = phi float [ 0.0e+00, %main_body ], [ %temp2.1, %LOOP ], [ %temp2.1, %ENDIF16 ] + %temp3.0 = phi float [ 0.0e+00, %main_body ], [ %temp3.1, %LOOP ], [ %temp3.1, %ENDIF16 ] %11 = load <4 x float>, <4 x float> addrspace(9)* null %12 = extractelement <4 x float> %11, i32 0 %13 = fmul float %12, %0 @@ -94,14 +94,14 @@ ret void LOOP: ; preds = %main_body, %ENDIF19 - %temp.1 = phi float [ %93, %ENDIF19 ], [ 0.000000e+00, %main_body ] - %temp1.1 = phi float [ %94, %ENDIF19 ], [ 1.000000e+00, %main_body ] - %temp2.1 = phi float [ %95, %ENDIF19 ], [ 0.000000e+00, %main_body ] - %temp3.1 = phi float [ %96, %ENDIF19 ], [ 0.000000e+00, %main_body ] - %temp4.0 = phi float [ %97, %ENDIF19 ], [ -2.000000e+00, %main_body ] + %temp.1 = phi float [ %93, %ENDIF19 ], [ 0.0e+00, %main_body ] + %temp1.1 = phi float [ %94, %ENDIF19 ], [ 1.0e+00, %main_body ] + %temp2.1 = phi float [ %95, %ENDIF19 ], [ 0.0e+00, %main_body ] + %temp3.1 = phi float [ %96, %ENDIF19 ], [ 0.0e+00, %main_body ] + %temp4.0 = phi float [ %97, %ENDIF19 ], [ -2.0e+00, %main_body ] %79 = fcmp uge float %temp4.0, %0 - %80 = select i1 %79, float 1.000000e+00, float 0.000000e+00 - %81 = fsub float -0.000000e+00, %80 + %80 = select i1 %79, float 1.0e+00, float 0.0e+00 + %81 = fsub float -0.0e+00, %80 %82 = fptosi float %81 to i32 %83 = bitcast i32 %82 to float %84 = bitcast float %83 to i32 @@ -110,8 +110,8 @@ ENDIF16: ; preds = %LOOP %86 = fcmp une float %2, %temp4.0 - %87 = select i1 %86, float 1.000000e+00, float 0.000000e+00 - %88 = fsub float -0.000000e+00, %87 + %87 = select i1 %86, float 1.0e+00, float 0.0e+00 + %88 = fsub float -0.0e+00, %87 %89 = fptosi float %88 to i32 %90 = bitcast i32 %89 to float %91 = bitcast float %90 to i32 @@ -119,11 +119,11 @@ br i1 %92, label %ENDIF, label %ENDIF19 ENDIF19: ; preds = %ENDIF16 - %93 = fadd float %temp.1, 1.000000e+00 - %94 = fadd float %temp1.1, 0.000000e+00 - %95 = fadd float %temp2.1, 0.000000e+00 - %96 = fadd float %temp3.1, 0.000000e+00 - %97 = fadd float %temp4.0, 1.000000e+00 + %93 = fadd float %temp.1, 1.0e+00 + %94 = fadd float %temp1.1, 0.0e+00 + %95 = fadd float %temp2.1, 0.0e+00 + %96 = fadd float %temp3.1, 0.0e+00 + %97 = fadd float %temp4.0, 1.0e+00 br label %LOOP } Index: test/CodeGen/AMDGPU/selectcc-opt.ll =================================================================== --- test/CodeGen/AMDGPU/selectcc-opt.ll +++ test/CodeGen/AMDGPU/selectcc-opt.ll @@ -9,9 +9,9 @@ define void @test_a(i32 addrspace(1)* %out, float %in) { entry: - %0 = fcmp olt float %in, 0.000000e+00 - %1 = select i1 %0, float 1.000000e+00, float 0.000000e+00 - %2 = fsub float -0.000000e+00, %1 + %0 = fcmp olt float %in, 0.0e+00 + %1 = select i1 %0, float 1.0e+00, float 0.0e+00 + %2 = fsub float -0.0e+00, %1 %3 = fptosi float %2 to i32 %4 = bitcast i32 %3 to float %5 = bitcast float %4 to i32 @@ -38,8 +38,8 @@ define void @test_b(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp olt float %in, 0.0 - %1 = select i1 %0, float 1.000000e+00, float 0.000000e+00 - %2 = fsub float -0.000000e+00, %1 + %1 = select i1 %0, float 1.0e+00, float 0.0e+00 + %2 = fsub float -0.0e+00, %1 %3 = fptosi float %2 to i32 %4 = bitcast i32 %3 to float %5 = bitcast float %4 to i32 Index: test/CodeGen/AMDGPU/set-dx10.ll =================================================================== --- test/CodeGen/AMDGPU/set-dx10.ll +++ test/CodeGen/AMDGPU/set-dx10.ll @@ -7,12 +7,12 @@ ; CHECK: {{^}}fcmp_une_select_fptosi: ; CHECK: LSHR ; CHECK-NEXT: SETNE_DX10 * {{\** *}}T{{[0-9]+\.[XYZW]}}, KC0[2].Z, literal.y, -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @fcmp_une_select_fptosi(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp une float %in, 5.0 - %1 = select i1 %0, float 1.000000e+00, float 0.000000e+00 - %2 = fsub float -0.000000e+00, %1 + %1 = select i1 %0, float 1.0e+00, float 0.0e+00 + %2 = fsub float -0.0e+00, %1 %3 = fptosi float %2 to i32 store i32 %3, i32 addrspace(1)* %out ret void @@ -21,7 +21,7 @@ ; CHECK: {{^}}fcmp_une_select_i32: ; CHECK: LSHR ; CHECK-NEXT: SETNE_DX10 * {{\** *}}T{{[0-9]+\.[XYZW]}}, KC0[2].Z, literal.y, -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @fcmp_une_select_i32(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp une float %in, 5.0 @@ -33,12 +33,12 @@ ; CHECK: {{^}}fcmp_oeq_select_fptosi: ; CHECK: LSHR ; CHECK-NEXT: SETE_DX10 * {{\** *}}T{{[0-9]+\.[XYZW]}}, KC0[2].Z, literal.y, -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @fcmp_oeq_select_fptosi(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp oeq float %in, 5.0 - %1 = select i1 %0, float 1.000000e+00, float 0.000000e+00 - %2 = fsub float -0.000000e+00, %1 + %1 = select i1 %0, float 1.0e+00, float 0.0e+00 + %2 = fsub float -0.0e+00, %1 %3 = fptosi float %2 to i32 store i32 %3, i32 addrspace(1)* %out ret void @@ -47,7 +47,7 @@ ; CHECK: {{^}}fcmp_oeq_select_i32: ; CHECK: LSHR ; CHECK-NEXT: SETE_DX10 * {{\** *}}T{{[0-9]+\.[XYZW]}}, KC0[2].Z, literal.y, -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @fcmp_oeq_select_i32(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp oeq float %in, 5.0 @@ -59,12 +59,12 @@ ; CHECK: {{^}}fcmp_ogt_select_fptosi: ; CHECK: LSHR ; CHECK-NEXT: SETGT_DX10 * {{\** *}}T{{[0-9]+\.[XYZW]}}, KC0[2].Z, literal.y, -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @fcmp_ogt_select_fptosi(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp ogt float %in, 5.0 - %1 = select i1 %0, float 1.000000e+00, float 0.000000e+00 - %2 = fsub float -0.000000e+00, %1 + %1 = select i1 %0, float 1.0e+00, float 0.0e+00 + %2 = fsub float -0.0e+00, %1 %3 = fptosi float %2 to i32 store i32 %3, i32 addrspace(1)* %out ret void @@ -73,7 +73,7 @@ ; CHECK: {{^}}fcmp_ogt_select_i32: ; CHECK: LSHR ; CHECK-NEXT: SETGT_DX10 * {{\** *}}T{{[0-9]+\.[XYZW]}}, KC0[2].Z, literal.y, -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @fcmp_ogt_select_i32(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp ogt float %in, 5.0 @@ -85,12 +85,12 @@ ; CHECK: {{^}}fcmp_oge_select_fptosi: ; CHECK: LSHR ; CHECK-NEXT: SETGE_DX10 * {{\** *}}T{{[0-9]+\.[XYZW]}}, KC0[2].Z, literal.y, -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @fcmp_oge_select_fptosi(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp oge float %in, 5.0 - %1 = select i1 %0, float 1.000000e+00, float 0.000000e+00 - %2 = fsub float -0.000000e+00, %1 + %1 = select i1 %0, float 1.0e+00, float 0.0e+00 + %2 = fsub float -0.0e+00, %1 %3 = fptosi float %2 to i32 store i32 %3, i32 addrspace(1)* %out ret void @@ -99,7 +99,7 @@ ; CHECK: {{^}}fcmp_oge_select_i32: ; CHECK: LSHR ; CHECK-NEXT: SETGE_DX10 * {{\** *}}T{{[0-9]+\.[XYZW]}}, KC0[2].Z, literal.y, -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @fcmp_oge_select_i32(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp oge float %in, 5.0 @@ -111,12 +111,12 @@ ; CHECK: {{^}}fcmp_ole_select_fptosi: ; CHECK: LSHR ; CHECK-NEXT: SETGE_DX10 * {{\** *}}T{{[0-9]+\.[XYZW]}}, literal.y, KC0[2].Z, -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @fcmp_ole_select_fptosi(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp ole float %in, 5.0 - %1 = select i1 %0, float 1.000000e+00, float 0.000000e+00 - %2 = fsub float -0.000000e+00, %1 + %1 = select i1 %0, float 1.0e+00, float 0.0e+00 + %2 = fsub float -0.0e+00, %1 %3 = fptosi float %2 to i32 store i32 %3, i32 addrspace(1)* %out ret void @@ -125,7 +125,7 @@ ; CHECK: {{^}}fcmp_ole_select_i32: ; CHECK: LSHR ; CHECK-NEXT: SETGE_DX10 * {{\** *}}T{{[0-9]+\.[XYZW]}}, literal.y, KC0[2].Z, -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @fcmp_ole_select_i32(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp ole float %in, 5.0 @@ -137,12 +137,12 @@ ; CHECK: {{^}}fcmp_olt_select_fptosi: ; CHECK: LSHR ; CHECK-NEXT: SETGT_DX10 * {{\** *}}T{{[0-9]+\.[XYZW]}}, literal.y, KC0[2].Z, -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @fcmp_olt_select_fptosi(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp olt float %in, 5.0 - %1 = select i1 %0, float 1.000000e+00, float 0.000000e+00 - %2 = fsub float -0.000000e+00, %1 + %1 = select i1 %0, float 1.0e+00, float 0.0e+00 + %2 = fsub float -0.0e+00, %1 %3 = fptosi float %2 to i32 store i32 %3, i32 addrspace(1)* %out ret void @@ -151,7 +151,7 @@ ; CHECK: {{^}}fcmp_olt_select_i32: ; CHECK: LSHR ; CHECK-NEXT: SETGT_DX10 * {{\** *}}T{{[0-9]+\.[XYZW]}}, literal.y, KC0[2].Z, -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @fcmp_olt_select_i32(i32 addrspace(1)* %out, float %in) { entry: %0 = fcmp olt float %in, 5.0 Index: test/CodeGen/AMDGPU/setcc.ll =================================================================== --- test/CodeGen/AMDGPU/setcc.ll +++ test/CodeGen/AMDGPU/setcc.ll @@ -396,8 +396,8 @@ ; SI: s_and_b64 s[2:3], [[A]], [[B]] define void @setcc-i1-and-xor(i32 addrspace(1)* %out, float %cond) #0 { bb0: - %tmp5 = fcmp oge float %cond, 0.000000e+00 - %tmp7 = fcmp ole float %cond, 1.000000e+00 + %tmp5 = fcmp oge float %cond, 0.0e+00 + %tmp7 = fcmp ole float %cond, 1.0e+00 %tmp9 = and i1 %tmp5, %tmp7 %tmp11 = xor i1 %tmp9, 1 br i1 %tmp11, label %bb2, label %bb1 Index: test/CodeGen/AMDGPU/seto.ll =================================================================== --- test/CodeGen/AMDGPU/seto.ll +++ test/CodeGen/AMDGPU/seto.ll @@ -7,7 +7,7 @@ define void @main(float %p) { main_body: %c = fcmp oeq float %p, %p - %r = select i1 %c, float 1.000000e+00, float 0.000000e+00 + %r = select i1 %c, float 1.0e+00, float 0.0e+00 call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %r, float %r, float %r, float %r) ret void } Index: test/CodeGen/AMDGPU/setuo.ll =================================================================== --- test/CodeGen/AMDGPU/setuo.ll +++ test/CodeGen/AMDGPU/setuo.ll @@ -7,7 +7,7 @@ define void @main(float %p) { main_body: %c = fcmp une float %p, %p - %r = select i1 %c, float 1.000000e+00, float 0.000000e+00 + %r = select i1 %c, float 1.0e+00, float 0.0e+00 call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %r, float %r, float %r, float %r) ret void } Index: test/CodeGen/AMDGPU/sgpr-copy.ll =================================================================== --- test/CodeGen/AMDGPU/sgpr-copy.ll +++ test/CodeGen/AMDGPU/sgpr-copy.ll @@ -23,13 +23,13 @@ br i1 %tmp25, label %ENDIF, label %ELSE ELSE: ; preds = %main_body - %tmp26 = fsub float -0.000000e+00, %tmp21 + %tmp26 = fsub float -0.0e+00, %tmp21 br label %ENDIF ENDIF: ; preds = %ELSE, %main_body %temp.0 = phi float [ %tmp26, %ELSE ], [ %tmp21, %main_body ] %tmp27 = fadd float %temp.0, %tmp23 - call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %tmp27, float %tmp27, float 0.000000e+00, float 1.000000e+00) + call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %tmp27, float %tmp27, float 0.0e+00, float 1.0e+00) ret void } @@ -85,7 +85,7 @@ %tmp63 = fadd float %tmp62, %tmp61 %tmp64 = fmul float %tmp60, %tmp24 %tmp65 = fadd float %tmp63, %tmp64 - %tmp66 = fsub float -0.000000e+00, %tmp25 + %tmp66 = fsub float -0.0e+00, %tmp25 %tmp67 = fmul float %tmp65, %tmp51 %tmp68 = fadd float %tmp67, %tmp66 %tmp69 = fmul float %tmp26, %tmp68 @@ -99,11 +99,11 @@ br i1 %tmp76, label %IF, label %ENDIF IF: ; preds = %main_body - %tmp77 = fsub float -0.000000e+00, %tmp69 + %tmp77 = fsub float -0.0e+00, %tmp69 %tmp78 = call float @llvm.exp2.f32(float %tmp77) - %tmp79 = fsub float -0.000000e+00, %tmp78 - %tmp80 = fadd float 1.000000e+00, %tmp79 - %tmp81 = fdiv float 1.000000e+00, %tmp69 + %tmp79 = fsub float -0.0e+00, %tmp78 + %tmp80 = fadd float 1.0e+00, %tmp79 + %tmp81 = fdiv float 1.0e+00, %tmp69 %tmp82 = fmul float %tmp80, %tmp81 %tmp83 = fmul float %tmp31, %tmp82 br label %ENDIF @@ -119,11 +119,11 @@ br i1 %tmp89, label %IF25, label %ENDIF24 IF25: ; preds = %ENDIF - %tmp90 = fsub float -0.000000e+00, %tmp70 + %tmp90 = fsub float -0.0e+00, %tmp70 %tmp91 = call float @llvm.exp2.f32(float %tmp90) - %tmp92 = fsub float -0.000000e+00, %tmp91 - %tmp93 = fadd float 1.000000e+00, %tmp92 - %tmp94 = fdiv float 1.000000e+00, %tmp70 + %tmp92 = fsub float -0.0e+00, %tmp91 + %tmp93 = fadd float 1.0e+00, %tmp92 + %tmp94 = fdiv float 1.0e+00, %tmp70 %tmp95 = fmul float %tmp93, %tmp94 %tmp96 = fmul float %tmp35, %tmp95 br label %ENDIF24 @@ -140,15 +140,15 @@ %tmp104 = fmul float %tmp34, %temp8.0 %tmp105 = fadd float %tmp104, %tmp99 %tmp106 = call float @llvm.pow.f32(float %tmp51, float %tmp21) - %tmp107 = fsub float -0.000000e+00, %tmp101 + %tmp107 = fsub float -0.0e+00, %tmp101 %tmp108 = fmul float %tmp107, %tmp106 - %tmp109 = fsub float -0.000000e+00, %tmp103 + %tmp109 = fsub float -0.0e+00, %tmp103 %tmp110 = fmul float %tmp109, %tmp106 - %tmp111 = fsub float -0.000000e+00, %tmp105 + %tmp111 = fsub float -0.0e+00, %tmp105 %tmp112 = fmul float %tmp111, %tmp106 %tmp113 = call i32 @llvm.SI.packf16(float %tmp108, float %tmp110) %tmp114 = bitcast i32 %tmp113 to float - %tmp115 = call i32 @llvm.SI.packf16(float %tmp112, float 1.000000e+00) + %tmp115 = call i32 @llvm.SI.packf16(float %tmp112, float 1.0e+00) %tmp116 = bitcast i32 %tmp115 to float call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp114, float %tmp116, float %tmp114, float %tmp116) ret void @@ -173,7 +173,7 @@ %temp4.0 = phi float [ %tmp21, %main_body ], [ %temp5.0, %ENDIF ] %temp5.0 = phi float [ %tmp22, %main_body ], [ %temp6.0, %ENDIF ] %temp6.0 = phi float [ %tmp23, %main_body ], [ %temp4.0, %ENDIF ] - %temp8.0 = phi float [ 0.000000e+00, %main_body ], [ %tmp36, %ENDIF ] + %temp8.0 = phi float [ 0.0e+00, %main_body ], [ %tmp36, %ENDIF ] %tmp28 = bitcast float %temp8.0 to i32 %tmp29 = icmp sge i32 %tmp28, %tmp27 %tmp30 = sext i1 %tmp29 to i32 @@ -183,7 +183,7 @@ br i1 %tmp33, label %IF, label %ENDIF IF: ; preds = %LOOP - call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %temp4.0, float %temp5.0, float %temp6.0, float 1.000000e+00) + call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %temp4.0, float %temp5.0, float %temp6.0, float 1.0e+00) ret void ENDIF: ; preds = %LOOP @@ -236,7 +236,7 @@ %tmp24 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp23, !tbaa !0 %tmp25 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 0 %tmp26 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp25, !tbaa !0 - %tmp27 = fcmp oeq float %tmp22, 0.000000e+00 + %tmp27 = fcmp oeq float %tmp22, 0.0e+00 %tmp26.bc = bitcast <16 x i8> %tmp26 to <4 x i32> br i1 %tmp27, label %if, label %else @@ -258,7 +258,7 @@ %val.0 = phi float [ %val.if.0, %if ], [ %val.else.0, %else ] %val.1 = phi float [ %val.if.1, %if ], [ %val.else.1, %else ] %val.2 = phi float [ %val.if.2, %if ], [ %val.else.2, %else ] - call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %val.0, float %val.1, float %val.2, float 0.000000e+00) + call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %val.0, float %val.1, float %val.2, float 0.0e+00) ret void } @@ -269,12 +269,12 @@ define void @copy1(float addrspace(1)* %out, float addrspace(1)* %in0) { entry: %tmp = load float, float addrspace(1)* %in0 - %tmp1 = fcmp oeq float %tmp, 0.000000e+00 + %tmp1 = fcmp oeq float %tmp, 0.0e+00 br i1 %tmp1, label %if0, label %endif if0: ; preds = %entry %tmp2 = bitcast float %tmp to i32 - %tmp3 = fcmp olt float %tmp, 0.000000e+00 + %tmp3 = fcmp olt float %tmp, 0.0e+00 br i1 %tmp3, label %if1, label %endif if1: ; preds = %if0 @@ -296,7 +296,7 @@ br label %LOOP68 LOOP68: ; preds = %ENDIF69, %entry - %temp4.7 = phi float [ 0.000000e+00, %entry ], [ %v, %ENDIF69 ] + %temp4.7 = phi float [ 0.0e+00, %entry ], [ %v, %ENDIF69 ] %t = phi i32 [ 20, %entry ], [ %x, %ENDIF69 ] %g = icmp eq i32 0, %t %l = bitcast float %temp4.7 to i32 @@ -304,8 +304,8 @@ IF70: ; preds = %LOOP68 %q = icmp ne i32 %l, 13 - %temp.8 = select i1 %q, float 1.000000e+00, float 0.000000e+00 - call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %temp.8, float 0.000000e+00, float 0.000000e+00, float 1.000000e+00) + %temp.8 = select i1 %q, float 1.0e+00, float 0.0e+00 + call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float %temp.8, float 0.0e+00, float 0.0e+00, float 1.0e+00) ret void ENDIF69: ; preds = %LOOP68 Index: test/CodeGen/AMDGPU/si-sgpr-spill.ll =================================================================== --- test/CodeGen/AMDGPU/si-sgpr-spill.ll +++ test/CodeGen/AMDGPU/si-sgpr-spill.ll @@ -200,16 +200,16 @@ %tmp180 = insertelement <4 x float> %tmp179, float %tmp176, i32 3 %tmp181 = extractelement <4 x float> %tmp180, i32 0 %tmp182 = extractelement <4 x float> %tmp180, i32 1 - %tmp183 = fdiv float 1.000000e+00, %tmp96 + %tmp183 = fdiv float 1.0e+00, %tmp96 %tmp184 = fmul float %tmp32, %tmp183 - %tmp185 = fcmp uge float 1.000000e+00, %tmp184 - %tmp186 = select i1 %tmp185, float %tmp184, float 1.000000e+00 + %tmp185 = fcmp uge float 1.0e+00, %tmp184 + %tmp186 = select i1 %tmp185, float %tmp184, float 1.0e+00 %tmp187 = fmul float %tmp186, %tmp29 %tmp188 = call float @ceil(float %tmp187) - %tmp189 = fcmp uge float 3.000000e+00, %tmp188 - %tmp190 = select i1 %tmp189, float 3.000000e+00, float %tmp188 - %tmp191 = fdiv float 1.000000e+00, %tmp190 - %tmp192 = fdiv float 1.000000e+00, %tmp29 + %tmp189 = fcmp uge float 3.0e+00, %tmp188 + %tmp190 = select i1 %tmp189, float 3.0e+00, float %tmp188 + %tmp191 = fdiv float 1.0e+00, %tmp190 + %tmp192 = fdiv float 1.0e+00, %tmp29 %tmp193 = fmul float %tmp190, %tmp192 %tmp194 = fmul float %tmp30, %tmp193 %tmp195 = fmul float %tmp94, %tmp94 @@ -222,17 +222,17 @@ %tmp202 = fmul float %tmp95, %tmp200 %tmp203 = fmul float %tmp201, %tmp28 %tmp204 = fmul float %tmp202, %tmp28 - %tmp205 = fmul float %tmp203, -1.000000e+00 - %tmp206 = fmul float %tmp204, 1.000000e+00 + %tmp205 = fmul float %tmp203, -1.0e+00 + %tmp206 = fmul float %tmp204, 1.0e+00 %tmp207 = fmul float %tmp205, %tmp31 %tmp208 = fmul float %tmp206, %tmp31 - %tmp209 = fsub float -0.000000e+00, %tmp207 + %tmp209 = fsub float -0.0e+00, %tmp207 %tmp210 = fadd float %tmp92, %tmp209 - %tmp211 = fsub float -0.000000e+00, %tmp208 + %tmp211 = fsub float -0.0e+00, %tmp208 %tmp212 = fadd float %tmp93, %tmp211 %tmp213 = fmul float %tmp205, %tmp191 %tmp214 = fmul float %tmp206, %tmp191 - %tmp215 = fmul float -1.000000e+00, %tmp191 + %tmp215 = fmul float -1.0e+00, %tmp191 %tmp216 = bitcast float %tmp135 to i32 %tmp217 = bitcast float %tmp181 to i32 %tmp218 = bitcast float %tmp136 to i32 @@ -244,10 +244,10 @@ br label %LOOP LOOP: ; preds = %ENDIF, %main_body - %temp24.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp257, %ENDIF ] + %temp24.0 = phi float [ 1.0e+00, %main_body ], [ %tmp257, %ENDIF ] %temp28.0 = phi float [ %tmp210, %main_body ], [ %tmp252, %ENDIF ] %temp29.0 = phi float [ %tmp212, %main_body ], [ %tmp254, %ENDIF ] - %temp30.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp256, %ENDIF ] + %temp30.0 = phi float [ 1.0e+00, %main_body ], [ %tmp256, %ENDIF ] %tmp224 = fcmp oge float %temp24.0, %tmp190 %tmp225 = sext i1 %tmp224 to i32 %tmp226 = bitcast i32 %tmp225 to float @@ -287,15 +287,15 @@ %tmp254 = fadd float %tmp253, %temp29.0 %tmp255 = fmul float %tmp215, %tmp250 %tmp256 = fadd float %tmp255, %temp30.0 - %tmp257 = fadd float %temp24.0, 1.000000e+00 + %tmp257 = fadd float %temp24.0, 1.0e+00 br label %LOOP LOOP65: ; preds = %ENDIF66, %IF - %temp24.1 = phi float [ 0.000000e+00, %IF ], [ %tmp609, %ENDIF66 ] + %temp24.1 = phi float [ 0.0e+00, %IF ], [ %tmp609, %ENDIF66 ] %temp28.1 = phi float [ %temp28.0, %IF ], [ %tmp604, %ENDIF66 ] %temp29.1 = phi float [ %temp29.0, %IF ], [ %tmp606, %ENDIF66 ] %temp30.1 = phi float [ %temp30.0, %IF ], [ %tmp608, %ENDIF66 ] - %temp32.0 = phi float [ 1.000000e+00, %IF ], [ %tmp610, %ENDIF66 ] + %temp32.0 = phi float [ 1.0e+00, %IF ], [ %tmp610, %ENDIF66 ] %tmp258 = fcmp oge float %temp24.1, %tmp194 %tmp259 = sext i1 %tmp258 to i32 %tmp260 = bitcast i32 %tmp259 to float @@ -393,9 +393,9 @@ %tmp346 = extractelement <4 x float> %tmp345, i32 0 %tmp347 = extractelement <4 x float> %tmp345, i32 1 %tmp348 = extractelement <4 x float> %tmp345, i32 2 - %tmp349 = fadd float %tmp346, -5.000000e-01 - %tmp350 = fadd float %tmp347, -5.000000e-01 - %tmp351 = fadd float %tmp348, -5.000000e-01 + %tmp349 = fadd float %tmp346, -5.0e-01 + %tmp350 = fadd float %tmp347, -5.0e-01 + %tmp351 = fadd float %tmp348, -5.0e-01 %tmp352 = fmul float %tmp349, %tmp349 %tmp353 = fmul float %tmp350, %tmp350 %tmp354 = fadd float %tmp353, %tmp352 @@ -425,9 +425,9 @@ %tmp377 = extractelement <4 x float> %tmp375, i32 1 %tmp378 = extractelement <4 x float> %tmp375, i32 2 %tmp379 = extractelement <4 x float> %tmp375, i32 3 - %tmp380 = fsub float -0.000000e+00, %tmp94 - %tmp381 = fsub float -0.000000e+00, %tmp95 - %tmp382 = fsub float -0.000000e+00, %tmp96 + %tmp380 = fsub float -0.0e+00, %tmp94 + %tmp381 = fsub float -0.0e+00, %tmp95 + %tmp382 = fsub float -0.0e+00, %tmp96 %tmp383 = fmul float %tmp358, %tmp380 %tmp384 = fmul float %tmp359, %tmp381 %tmp385 = fadd float %tmp384, %tmp383 @@ -436,14 +436,14 @@ %tmp388 = fmul float %tmp387, %tmp358 %tmp389 = fmul float %tmp387, %tmp359 %tmp390 = fmul float %tmp387, %tmp360 - %tmp391 = fmul float 2.000000e+00, %tmp388 - %tmp392 = fmul float 2.000000e+00, %tmp389 - %tmp393 = fmul float 2.000000e+00, %tmp390 - %tmp394 = fsub float -0.000000e+00, %tmp391 + %tmp391 = fmul float 2.0e+00, %tmp388 + %tmp392 = fmul float 2.0e+00, %tmp389 + %tmp393 = fmul float 2.0e+00, %tmp390 + %tmp394 = fsub float -0.0e+00, %tmp391 %tmp395 = fadd float %tmp380, %tmp394 - %tmp396 = fsub float -0.000000e+00, %tmp392 + %tmp396 = fsub float -0.0e+00, %tmp392 %tmp397 = fadd float %tmp381, %tmp396 - %tmp398 = fsub float -0.000000e+00, %tmp393 + %tmp398 = fsub float -0.0e+00, %tmp393 %tmp399 = fadd float %tmp382, %tmp398 %tmp400 = fmul float %tmp395, %tmp97 %tmp401 = fmul float %tmp395, %tmp98 @@ -504,11 +504,11 @@ %tmp455 = extractelement <4 x float> %tmp452, i32 2 %tmp456 = extractelement <4 x float> %tmp452, i32 3 %tmp457 = call float @fabs(float %tmp455) - %tmp458 = fdiv float 1.000000e+00, %tmp457 + %tmp458 = fdiv float 1.0e+00, %tmp457 %tmp459 = fmul float %tmp453, %tmp458 - %tmp460 = fadd float %tmp459, 1.500000e+00 + %tmp460 = fadd float %tmp459, 1.5e+00 %tmp461 = fmul float %tmp454, %tmp458 - %tmp462 = fadd float %tmp461, 1.500000e+00 + %tmp462 = fadd float %tmp461, 1.5e+00 %tmp463 = bitcast float %tmp462 to i32 %tmp464 = bitcast float %tmp460 to i32 %tmp465 = bitcast float %tmp456 to i32 @@ -547,14 +547,14 @@ %tmp497 = fmul float %tmp496, %tmp358 %tmp498 = fmul float %tmp496, %tmp359 %tmp499 = fmul float %tmp496, %tmp360 - %tmp500 = fmul float 2.000000e+00, %tmp497 - %tmp501 = fmul float 2.000000e+00, %tmp498 - %tmp502 = fmul float 2.000000e+00, %tmp499 - %tmp503 = fsub float -0.000000e+00, %tmp500 + %tmp500 = fmul float 2.0e+00, %tmp497 + %tmp501 = fmul float 2.0e+00, %tmp498 + %tmp502 = fmul float 2.0e+00, %tmp499 + %tmp503 = fsub float -0.0e+00, %tmp500 %tmp504 = fadd float %tmp486, %tmp503 - %tmp505 = fsub float -0.000000e+00, %tmp501 + %tmp505 = fsub float -0.0e+00, %tmp501 %tmp506 = fadd float %tmp487, %tmp505 - %tmp507 = fsub float -0.000000e+00, %tmp502 + %tmp507 = fsub float -0.0e+00, %tmp502 %tmp508 = fadd float %tmp488, %tmp507 %tmp509 = fmul float %tmp94, %tmp94 %tmp510 = fmul float %tmp95, %tmp95 @@ -570,11 +570,11 @@ %tmp520 = fadd float %tmp519, %tmp518 %tmp521 = fmul float %tmp508, %tmp517 %tmp522 = fadd float %tmp520, %tmp521 - %tmp523 = fsub float -0.000000e+00, %tmp522 - %tmp524 = fcmp uge float %tmp523, 0.000000e+00 - %tmp525 = select i1 %tmp524, float %tmp523, float 0.000000e+00 + %tmp523 = fsub float -0.0e+00, %tmp522 + %tmp524 = fcmp uge float %tmp523, 0.0e+00 + %tmp525 = select i1 %tmp524, float %tmp523, float 0.0e+00 %tmp526 = fmul float %tmp42, %tmp379 - %tmp527 = fadd float %tmp526, 1.000000e+00 + %tmp527 = fadd float %tmp526, 1.0e+00 %tmp528 = call float @llvm.pow.f32(float %tmp525, float %tmp527) %tmp529 = fmul float %tmp475, %tmp36 %tmp530 = fmul float %tmp477, %tmp37 @@ -584,8 +584,8 @@ %tmp534 = fadd float %tmp533, %tmp532 %tmp535 = fmul float %tmp360, %tmp488 %tmp536 = fadd float %tmp534, %tmp535 - %tmp537 = fcmp uge float %tmp536, 0.000000e+00 - %tmp538 = select i1 %tmp537, float %tmp536, float 0.000000e+00 + %tmp537 = fcmp uge float %tmp536, 0.0e+00 + %tmp538 = select i1 %tmp537, float %tmp536, float 0.0e+00 %tmp539 = fmul float %tmp529, %tmp538 %tmp540 = fmul float %tmp530, %tmp538 %tmp541 = fmul float %tmp531, %tmp538 @@ -651,8 +651,8 @@ %tmp596 = bitcast float %tmp595 to i32 %tmp597 = and i32 %tmp596, 1065353216 %tmp598 = bitcast i32 %tmp597 to float - %tmp599 = fmul float 5.000000e-01, %temp32.0 - %tmp600 = fsub float -0.000000e+00, %tmp599 + %tmp599 = fmul float 5.0e-01, %temp32.0 + %tmp600 = fsub float -0.0e+00, %tmp599 %tmp601 = fmul float %tmp598, %temp32.0 %tmp602 = fadd float %tmp601, %tmp600 %tmp603 = fmul float %tmp213, %tmp602 @@ -661,8 +661,8 @@ %tmp606 = fadd float %tmp605, %temp29.1 %tmp607 = fmul float %tmp215, %tmp602 %tmp608 = fadd float %tmp607, %temp30.1 - %tmp609 = fadd float %temp24.1, 1.000000e+00 - %tmp610 = fmul float %temp32.0, 5.000000e-01 + %tmp609 = fadd float %temp24.1, 1.0e+00 + %tmp610 = fmul float %temp32.0, 5.0e-01 br label %LOOP65 } @@ -811,8 +811,8 @@ %tmp158 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp157, !tbaa !0 %tmp159 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 8 %tmp160 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp159, !tbaa !0 - %tmp161 = fcmp ugt float %arg17, 0.000000e+00 - %tmp162 = select i1 %tmp161, float 1.000000e+00, float 0.000000e+00 + %tmp161 = fcmp ugt float %arg17, 0.0e+00 + %tmp162 = select i1 %tmp161, float 1.0e+00, float 0.0e+00 %tmp163 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg4, <2 x i32> %arg6) %tmp164 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg4, <2 x i32> %arg6) %tmp165 = call float @llvm.SI.fs.interp(i32 2, i32 0, i32 %arg4, <2 x i32> %arg6) @@ -847,18 +847,18 @@ %tmp194 = call float @llvm.SI.fs.interp(i32 3, i32 7, i32 %arg4, <2 x i32> %arg6) %tmp195 = fmul float %arg14, %tmp123 %tmp196 = fadd float %tmp195, %tmp124 - %tmp197 = call float @llvm.AMDGPU.clamp.f32(float %tmp162, float 0.000000e+00, float 1.000000e+00) - %tmp198 = call float @llvm.AMDGPU.clamp.f32(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00) - %tmp199 = call float @llvm.AMDGPU.clamp.f32(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00) - %tmp200 = call float @llvm.AMDGPU.clamp.f32(float 1.000000e+00, float 0.000000e+00, float 1.000000e+00) + %tmp197 = call float @llvm.AMDGPU.clamp.f32(float %tmp162, float 0.0e+00, float 1.0e+00) + %tmp198 = call float @llvm.AMDGPU.clamp.f32(float 0.0e+00, float 0.0e+00, float 1.0e+00) + %tmp199 = call float @llvm.AMDGPU.clamp.f32(float 0.0e+00, float 0.0e+00, float 1.0e+00) + %tmp200 = call float @llvm.AMDGPU.clamp.f32(float 1.0e+00, float 0.0e+00, float 1.0e+00) %tmp201 = bitcast float %tmp197 to i32 %tmp202 = icmp ne i32 %tmp201, 0 - %. = select i1 %tmp202, float -1.000000e+00, float 1.000000e+00 - %tmp203 = fsub float -0.000000e+00, %tmp163 + %. = select i1 %tmp202, float -1.0e+00, float 1.0e+00 + %tmp203 = fsub float -0.0e+00, %tmp163 %tmp204 = fadd float %tmp43, %tmp203 - %tmp205 = fsub float -0.000000e+00, %tmp164 + %tmp205 = fsub float -0.0e+00, %tmp164 %tmp206 = fadd float %tmp44, %tmp205 - %tmp207 = fsub float -0.000000e+00, %tmp165 + %tmp207 = fsub float -0.0e+00, %tmp165 %tmp208 = fadd float %tmp45, %tmp207 %tmp209 = fmul float %tmp204, %tmp204 %tmp210 = fmul float %tmp206, %tmp206 @@ -885,11 +885,11 @@ %tmp230 = fmul float %tmp226, 0x4012611180000000 %tmp231 = fmul float %tmp227, 0x4012611180000000 %tmp232 = fmul float %tmp228, 0x4012611180000000 - %one.sub.a.i = fsub float 1.000000e+00, %tmp26 + %one.sub.a.i = fsub float 1.0e+00, %tmp26 %result.i = fadd float %tmp230, %one.sub.a.i - %one.sub.a.i43 = fsub float 1.000000e+00, %tmp26 + %one.sub.a.i43 = fsub float 1.0e+00, %tmp26 %result.i44 = fadd float %tmp231, %one.sub.a.i43 - %one.sub.a.i41 = fsub float 1.000000e+00, %tmp26 + %one.sub.a.i41 = fsub float 1.0e+00, %tmp26 %result.i42 = fadd float %tmp232, %one.sub.a.i41 %tmp233 = fmul float %tmp215, %tmp183 %tmp234 = fmul float %tmp216, %tmp184 @@ -906,38 +906,38 @@ %tmp245 = fadd float %tmp244, %tmp243 %tmp246 = fmul float %tmp217, %tmp191 %tmp247 = fadd float %tmp245, %tmp246 - %tmp248 = call float @llvm.AMDGPU.clamp.f32(float %tmp247, float 0.000000e+00, float 1.000000e+00) + %tmp248 = call float @llvm.AMDGPU.clamp.f32(float %tmp247, float 0.0e+00, float 1.0e+00) %tmp249 = fmul float %tmp213, 0x3F5A36E2E0000000 - %tmp250 = call float @llvm.AMDGPU.clamp.f32(float %tmp249, float 0.000000e+00, float 1.000000e+00) - %tmp251 = fsub float -0.000000e+00, %tmp250 - %tmp252 = fadd float 1.000000e+00, %tmp251 - %tmp253 = call float @llvm.pow.f32(float %tmp248, float 2.500000e-01) + %tmp250 = call float @llvm.AMDGPU.clamp.f32(float %tmp249, float 0.0e+00, float 1.0e+00) + %tmp251 = fsub float -0.0e+00, %tmp250 + %tmp252 = fadd float 1.0e+00, %tmp251 + %tmp253 = call float @llvm.pow.f32(float %tmp248, float 2.5e-01) %tmp254 = fmul float %tmp38, %tmp253 %tmp255 = fmul float %tmp237, %tmp254 %tmp256 = fmul float %tmp242, %tmp254 %tmp257 = fmul float %tmp255, %tmp229 %tmp258 = fmul float %tmp256, %tmp229 %tmp259 = fadd float %tmp248, 0x3EE4F8B580000000 - %tmp260 = fsub float -0.000000e+00, %tmp248 - %tmp261 = fadd float 1.000000e+00, %tmp260 - %tmp262 = fmul float 1.200000e+01, %tmp261 - %tmp263 = fadd float %tmp262, 4.000000e+00 - %tmp264 = fsub float -0.000000e+00, %tmp263 + %tmp260 = fsub float -0.0e+00, %tmp248 + %tmp261 = fadd float 1.0e+00, %tmp260 + %tmp262 = fmul float 1.2e+01, %tmp261 + %tmp263 = fadd float %tmp262, 4.0e+00 + %tmp264 = fsub float -0.0e+00, %tmp263 %tmp265 = fmul float %tmp264, %tmp259 - %tmp266 = fsub float -0.000000e+00, %tmp263 + %tmp266 = fsub float -0.0e+00, %tmp263 %tmp267 = fmul float %tmp266, %tmp259 - %tmp268 = fsub float -0.000000e+00, %tmp263 + %tmp268 = fsub float -0.0e+00, %tmp263 %tmp269 = fmul float %tmp268, %tmp259 - %tmp270 = fdiv float 1.000000e+00, %tmp265 - %tmp271 = fdiv float 1.000000e+00, %tmp267 - %tmp272 = fdiv float 1.000000e+00, %tmp269 + %tmp270 = fdiv float 1.0e+00, %tmp265 + %tmp271 = fdiv float 1.0e+00, %tmp267 + %tmp272 = fdiv float 1.0e+00, %tmp269 %tmp273 = fmul float %tmp257, %tmp270 %tmp274 = fmul float %tmp258, %tmp271 %tmp275 = fmul float %tmp259, %tmp272 br label %LOOP LOOP: ; preds = %LOOP, %main_body - %temp144.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp288, %LOOP ] + %temp144.0 = phi float [ 1.0e+00, %main_body ], [ %tmp288, %LOOP ] %temp168.0 = phi float [ %tmp175, %main_body ], [ %tmp284, %LOOP ] %temp169.0 = phi float [ %tmp176, %main_body ], [ %tmp285, %LOOP ] %temp170.0 = phi float [ %tmp252, %main_body ], [ %tmp286, %LOOP ] @@ -953,9 +953,9 @@ %tmp284 = fadd float %temp168.0, %tmp273 %tmp285 = fadd float %temp169.0, %tmp274 %tmp286 = fadd float %temp170.0, %tmp275 - %tmp287 = fsub float -0.000000e+00, %tmp283 + %tmp287 = fsub float -0.0e+00, %tmp283 %tmp288 = fadd float %tmp286, %tmp287 - %tmp289 = fcmp oge float 0.000000e+00, %tmp288 + %tmp289 = fcmp oge float 0.0e+00, %tmp288 %tmp290 = sext i1 %tmp289 to i32 %tmp291 = bitcast i32 %tmp290 to float %tmp292 = bitcast float %tmp291 to i32 @@ -966,18 +966,18 @@ %tmp294 = extractelement <4 x float> %tmp282, i32 0 %tmp295 = extractelement <4 x float> %tmp282, i32 1 %tmp296 = extractelement <4 x float> %tmp282, i32 2 - %tmp297 = fsub float -0.000000e+00, %tmp288 + %tmp297 = fsub float -0.0e+00, %tmp288 %tmp298 = fadd float %temp144.0, %tmp297 - %tmp299 = fdiv float 1.000000e+00, %tmp298 + %tmp299 = fdiv float 1.0e+00, %tmp298 %tmp300 = fmul float %tmp288, %tmp299 - %tmp301 = fadd float %tmp300, -1.000000e+00 + %tmp301 = fadd float %tmp300, -1.0e+00 %tmp302 = fmul float %tmp301, %tmp273 %tmp303 = fadd float %tmp302, %tmp284 %tmp304 = fmul float %tmp301, %tmp274 %tmp305 = fadd float %tmp304, %tmp285 - %tmp306 = fsub float -0.000000e+00, %tmp175 + %tmp306 = fsub float -0.0e+00, %tmp175 %tmp307 = fadd float %tmp303, %tmp306 - %tmp308 = fsub float -0.000000e+00, %tmp176 + %tmp308 = fsub float -0.0e+00, %tmp176 %tmp309 = fadd float %tmp305, %tmp308 %tmp310 = fadd float %tmp175, %tmp307 %tmp311 = fadd float %tmp176, %tmp309 @@ -1025,18 +1025,18 @@ %tmp352 = fmul float %tmp348, %tmp180 %tmp353 = fmul float %tmp349, %tmp181 %tmp354 = fmul float %tmp350, %tmp182 - %tmp355 = fsub float -0.000000e+00, %tmp346 - %tmp356 = fadd float 1.000000e+00, %tmp355 + %tmp355 = fsub float -0.0e+00, %tmp346 + %tmp356 = fadd float 1.0e+00, %tmp355 %tmp357 = fmul float %tmp356, %tmp48 - %one.sub.a.i37 = fsub float 1.000000e+00, %tmp357 + %one.sub.a.i37 = fsub float 1.0e+00, %tmp357 %one.sub.ac.i38 = fmul float %one.sub.a.i37, %tmp351 %mul.i39 = fmul float %tmp343, %tmp351 %result.i40 = fadd float %mul.i39, %one.sub.ac.i38 - %one.sub.a.i33 = fsub float 1.000000e+00, %tmp357 + %one.sub.a.i33 = fsub float 1.0e+00, %tmp357 %one.sub.ac.i34 = fmul float %one.sub.a.i33, %tmp352 %mul.i35 = fmul float %tmp344, %tmp352 %result.i36 = fadd float %mul.i35, %one.sub.ac.i34 - %one.sub.a.i29 = fsub float 1.000000e+00, %tmp357 + %one.sub.a.i29 = fsub float 1.0e+00, %tmp357 %one.sub.ac.i30 = fmul float %one.sub.a.i29, %tmp353 %mul.i31 = fmul float %tmp345, %tmp353 %result.i32 = fadd float %mul.i31, %one.sub.ac.i30 @@ -1061,7 +1061,7 @@ %tmp374 = extractelement <4 x float> %tmp372, i32 1 %tmp375 = extractelement <4 x float> %tmp372, i32 2 %tmp376 = extractelement <4 x float> %tmp372, i32 3 - %tmp377 = fcmp olt float 0.000000e+00, %tmp375 + %tmp377 = fcmp olt float 0.0e+00, %tmp375 %tmp378 = sext i1 %tmp377 to i32 %tmp379 = bitcast i32 %tmp378 to float %tmp380 = bitcast float %tmp379 to i32 @@ -1078,37 +1078,37 @@ %tmp388 = extractelement <4 x float> %tmp386, i32 1 %tmp389 = extractelement <4 x float> %tmp386, i32 2 %tmp390 = extractelement <4 x float> %tmp386, i32 3 - %tmp391 = fcmp olt float 0.000000e+00, %tmp389 + %tmp391 = fcmp olt float 0.0e+00, %tmp389 %tmp392 = sext i1 %tmp391 to i32 %tmp393 = bitcast i32 %tmp392 to float %tmp394 = bitcast float %tmp393 to i32 %tmp395 = icmp ne i32 %tmp394, 0 %temp112.1 = select i1 %tmp395, float %tmp388, float %tmp387 %temp113.1 = select i1 %tmp395, float %tmp390, float %tmp388 - %tmp396 = fmul float %.224, 2.000000e+00 - %tmp397 = fadd float %tmp396, -1.000000e+00 - %tmp398 = fmul float %.225, 2.000000e+00 - %tmp399 = fadd float %tmp398, -1.000000e+00 - %tmp400 = fmul float %temp112.1, 2.000000e+00 - %tmp401 = fadd float %tmp400, -1.000000e+00 - %tmp402 = fmul float %temp113.1, 2.000000e+00 - %tmp403 = fadd float %tmp402, -1.000000e+00 - %tmp404 = fsub float -0.000000e+00, %tmp397 + %tmp396 = fmul float %.224, 2.0e+00 + %tmp397 = fadd float %tmp396, -1.0e+00 + %tmp398 = fmul float %.225, 2.0e+00 + %tmp399 = fadd float %tmp398, -1.0e+00 + %tmp400 = fmul float %temp112.1, 2.0e+00 + %tmp401 = fadd float %tmp400, -1.0e+00 + %tmp402 = fmul float %temp113.1, 2.0e+00 + %tmp403 = fadd float %tmp402, -1.0e+00 + %tmp404 = fsub float -0.0e+00, %tmp397 %tmp405 = fmul float %tmp404, %tmp34 - %tmp406 = fsub float -0.000000e+00, %tmp399 + %tmp406 = fsub float -0.0e+00, %tmp399 %tmp407 = fmul float %tmp406, %tmp34 - %tmp408 = fsub float -0.000000e+00, %tmp401 + %tmp408 = fsub float -0.0e+00, %tmp401 %tmp409 = fmul float %tmp408, %tmp35 - %tmp410 = fsub float -0.000000e+00, %tmp403 + %tmp410 = fsub float -0.0e+00, %tmp403 %tmp411 = fmul float %tmp410, %tmp35 %tmp412 = fmul float %tmp409, %tmp363 %tmp413 = fmul float %tmp411, %tmp363 %tmp414 = call float @fabs(float %tmp405) %tmp415 = call float @fabs(float %tmp407) - %tmp416 = fsub float -0.000000e+00, %tmp414 - %tmp417 = fadd float 1.000000e+00, %tmp416 - %tmp418 = fsub float -0.000000e+00, %tmp415 - %tmp419 = fadd float 1.000000e+00, %tmp418 + %tmp416 = fsub float -0.0e+00, %tmp414 + %tmp417 = fadd float 1.0e+00, %tmp416 + %tmp418 = fsub float -0.0e+00, %tmp415 + %tmp419 = fadd float 1.0e+00, %tmp418 %tmp420 = fmul float %tmp417, %tmp412 %tmp421 = fadd float %tmp420, %tmp405 %tmp422 = fmul float %tmp419, %tmp413 @@ -1116,14 +1116,14 @@ %tmp424 = fmul float %tmp421, %tmp421 %tmp425 = fmul float %tmp423, %tmp423 %tmp426 = fadd float %tmp424, %tmp425 - %tmp427 = fsub float -0.000000e+00, %tmp426 + %tmp427 = fsub float -0.0e+00, %tmp426 %tmp428 = fadd float 0x3FF00068E0000000, %tmp427 - %tmp429 = call float @llvm.AMDGPU.clamp.f32(float %tmp428, float 0.000000e+00, float 1.000000e+00) + %tmp429 = call float @llvm.AMDGPU.clamp.f32(float %tmp428, float 0.0e+00, float 1.0e+00) %tmp430 = call float @llvm.amdgcn.rsq.f32(float %tmp429) %tmp431 = fmul float %tmp430, %tmp429 - %tmp432 = fsub float -0.000000e+00, %tmp429 - %cmp = fcmp ogt float 0.000000e+00, %tmp432 - %tmp433 = select i1 %cmp, float %tmp431, float 0.000000e+00 + %tmp432 = fsub float -0.0e+00, %tmp429 + %cmp = fcmp ogt float 0.0e+00, %tmp432 + %tmp433 = select i1 %cmp, float %tmp431, float 0.0e+00 %tmp434 = fmul float %tmp183, %tmp421 %tmp435 = fmul float %tmp184, %tmp421 %tmp436 = fmul float %tmp185, %tmp421 @@ -1148,7 +1148,7 @@ %tmp455 = fmul float %tmp444, %tmp454 %tmp456 = fmul float %tmp446, %tmp454 %tmp457 = fmul float %tmp448, %tmp454 - %tmp458 = fcmp olt float 0.000000e+00, %tmp218 + %tmp458 = fcmp olt float 0.0e+00, %tmp218 %tmp459 = sext i1 %tmp458 to i32 %tmp460 = bitcast i32 %tmp459 to float %tmp461 = bitcast float %tmp460 to i32 @@ -1156,9 +1156,9 @@ br i1 %tmp462, label %IF198, label %ENDIF197 IF198: ; preds = %IF189 - %tmp463 = fsub float -0.000000e+00, %tmp455 - %tmp464 = fsub float -0.000000e+00, %tmp456 - %tmp465 = fsub float -0.000000e+00, %tmp457 + %tmp463 = fsub float -0.0e+00, %tmp455 + %tmp464 = fsub float -0.0e+00, %tmp456 + %tmp465 = fsub float -0.0e+00, %tmp457 br label %ENDIF197 ENDIF197: ; preds = %IF198, %IF189 @@ -1193,8 +1193,8 @@ %tmp489 = extractelement <4 x float> %tmp487, i32 1 %tmp490 = extractelement <4 x float> %tmp487, i32 2 %tmp491 = extractelement <4 x float> %tmp487, i32 3 - %tmp492 = fmul float %tmp491, 3.200000e+01 - %tmp493 = fadd float %tmp492, -1.600000e+01 + %tmp492 = fmul float %tmp491, 3.2e+01 + %tmp493 = fadd float %tmp492, -1.6e+01 %tmp494 = call float @llvm.exp2.f32(float %tmp493) %tmp495 = fmul float %tmp488, %tmp494 %tmp496 = fmul float %tmp489, %tmp494 @@ -1208,8 +1208,8 @@ %tmp504 = fmul float %tmp499, %tmp482 %tmp505 = fmul float %tmp501, %tmp482 %tmp506 = fmul float %tmp503, %tmp482 - %tmp507 = fmul float %tmp482, 5.000000e-01 - %tmp508 = fadd float %tmp507, 5.000000e-01 + %tmp507 = fmul float %tmp482, 5.0e-01 + %tmp508 = fadd float %tmp507, 5.0e-01 %tmp509 = fmul float %tmp476, %tmp508 %tmp510 = fadd float %tmp509, %tmp504 %tmp511 = fmul float %tmp478, %tmp508 @@ -1224,32 +1224,32 @@ %tmp520 = fadd float %tmp519, %tmp518 %tmp521 = fmul float %tmp433, 0x3FE99999A0000000 %tmp522 = fadd float %tmp520, %tmp521 - %tmp523 = fmul float %tmp522, 5.000000e-01 + %tmp523 = fmul float %tmp522, 5.0e-01 %tmp524 = fadd float %tmp523, 0x3FE3333340000000 %tmp525 = fmul float %tmp524, %tmp524 %tmp526 = fmul float %tmp515, %tmp525 %tmp527 = fmul float %tmp516, %tmp525 %tmp528 = fmul float %tmp517, %tmp525 - %tmp529 = fsub float -0.000000e+00, %tmp71 - %tmp530 = fsub float -0.000000e+00, %tmp72 - %tmp531 = fsub float -0.000000e+00, %tmp73 + %tmp529 = fsub float -0.0e+00, %tmp71 + %tmp530 = fsub float -0.0e+00, %tmp72 + %tmp531 = fsub float -0.0e+00, %tmp73 %tmp532 = fmul float %temp12.0, %tmp529 %tmp533 = fmul float %temp13.0, %tmp530 %tmp534 = fadd float %tmp533, %tmp532 %tmp535 = fmul float %temp14.0, %tmp531 %tmp536 = fadd float %tmp534, %tmp535 - %tmp537 = call float @llvm.AMDGPU.clamp.f32(float %tmp536, float 0.000000e+00, float 1.000000e+00) + %tmp537 = call float @llvm.AMDGPU.clamp.f32(float %tmp536, float 0.0e+00, float 1.0e+00) %tmp538 = fmul float %tmp364, %tmp537 %tmp539 = fmul float %tmp365, %tmp537 %tmp540 = fmul float %tmp366, %tmp537 %tmp541 = fmul float %tmp538, %tmp68 %tmp542 = fmul float %tmp539, %tmp69 %tmp543 = fmul float %tmp540, %tmp70 - %tmp544 = fsub float -0.000000e+00, %tmp163 + %tmp544 = fsub float -0.0e+00, %tmp163 %tmp545 = fadd float %tmp96, %tmp544 - %tmp546 = fsub float -0.000000e+00, %tmp164 + %tmp546 = fsub float -0.0e+00, %tmp164 %tmp547 = fadd float %tmp97, %tmp546 - %tmp548 = fsub float -0.000000e+00, %tmp165 + %tmp548 = fsub float -0.0e+00, %tmp165 %tmp549 = fadd float %tmp98, %tmp548 %tmp550 = fmul float %tmp545, %tmp545 %tmp551 = fmul float %tmp547, %tmp547 @@ -1258,24 +1258,24 @@ %tmp554 = fadd float %tmp552, %tmp553 %tmp555 = call float @llvm.amdgcn.rsq.f32(float %tmp554) %tmp556 = fmul float %tmp555, %tmp554 - %tmp557 = fsub float -0.000000e+00, %tmp554 - %cmp1 = fcmp ogt float %tmp557, 0.000000e+00 - %tmp558 = select i1 %cmp1, float %tmp556, float 0.000000e+00 - %tmp559 = fsub float -0.000000e+00, %tmp83 + %tmp557 = fsub float -0.0e+00, %tmp554 + %cmp1 = fcmp ogt float %tmp557, 0.0e+00 + %tmp558 = select i1 %cmp1, float %tmp556, float 0.0e+00 + %tmp559 = fsub float -0.0e+00, %tmp83 %tmp560 = fadd float %tmp558, %tmp559 - %tmp561 = fsub float -0.000000e+00, %tmp82 + %tmp561 = fsub float -0.0e+00, %tmp82 %tmp562 = fadd float %tmp558, %tmp561 - %tmp563 = fsub float -0.000000e+00, %tmp81 + %tmp563 = fsub float -0.0e+00, %tmp81 %tmp564 = fadd float %tmp558, %tmp563 - %tmp565 = fsub float -0.000000e+00, %tmp83 + %tmp565 = fsub float -0.0e+00, %tmp83 %tmp566 = fadd float %tmp82, %tmp565 - %tmp567 = fsub float -0.000000e+00, %tmp82 + %tmp567 = fsub float -0.0e+00, %tmp82 %tmp568 = fadd float %tmp81, %tmp567 - %tmp569 = fsub float -0.000000e+00, %tmp81 + %tmp569 = fsub float -0.0e+00, %tmp81 %tmp570 = fadd float %tmp80, %tmp569 - %tmp571 = fdiv float 1.000000e+00, %tmp566 - %tmp572 = fdiv float 1.000000e+00, %tmp568 - %tmp573 = fdiv float 1.000000e+00, %tmp570 + %tmp571 = fdiv float 1.0e+00, %tmp566 + %tmp572 = fdiv float 1.0e+00, %tmp568 + %tmp573 = fdiv float 1.0e+00, %tmp570 %tmp574 = fmul float %tmp560, %tmp571 %tmp575 = fmul float %tmp562, %tmp572 %tmp576 = fmul float %tmp564, %tmp573 @@ -1313,7 +1313,7 @@ %tmp594 = bitcast i32 %tmp593 to float %tmp595 = bitcast float %tmp594 to i32 %tmp596 = icmp ne i32 %tmp595, 0 - %.226 = select i1 %tmp596, float %tmp576, float 1.000000e+00 + %.226 = select i1 %tmp596, float %tmp576, float 1.0e+00 %.227 = select i1 %tmp596, float %tmp117, float %tmp115 %.228 = select i1 %tmp596, float %tmp118, float %tmp116 br label %ENDIF200 @@ -1356,8 +1356,8 @@ %tmp620 = fadd float %tmp618, %tmp619 %tmp621 = fmul float %tmp166, %tmp95 %tmp622 = fadd float %tmp620, %tmp621 - %tmp623 = fsub float -0.000000e+00, %tmp77 - %tmp624 = fadd float 1.000000e+00, %tmp623 + %tmp623 = fsub float -0.0e+00, %tmp77 + %tmp624 = fadd float 1.0e+00, %tmp623 %tmp625 = call float @fabs(float %tmp608) %tmp626 = call float @fabs(float %tmp615) %tmp627 = fcmp oge float %tmp624, %tmp625 @@ -1382,13 +1382,13 @@ %tmp646 = fadd float %tmp645, %temp54.0 %tmp647 = fmul float %tmp615, %temp53.0 %tmp648 = fadd float %tmp647, %temp55.0 - %tmp649 = fadd float %temp80.0, -1.000000e+00 + %tmp649 = fadd float %temp80.0, -1.0e+00 %tmp650 = fmul float %tmp649, %tmp76 - %tmp651 = fadd float %tmp650, 1.000000e+00 - %tmp652 = call float @llvm.AMDGPU.clamp.f32(float %tmp651, float 0.000000e+00, float 1.000000e+00) + %tmp651 = fadd float %tmp650, 1.0e+00 + %tmp652 = call float @llvm.AMDGPU.clamp.f32(float %tmp651, float 0.0e+00, float 1.0e+00) %tmp653 = bitcast float %tmp642 to i32 %tmp654 = bitcast float %tmp644 to i32 - %tmp655 = bitcast float 0.000000e+00 to i32 + %tmp655 = bitcast float 0.0e+00 to i32 %tmp656 = insertelement <4 x i32> undef, i32 %tmp653, i32 0 %tmp657 = insertelement <4 x i32> %tmp656, i32 %tmp654, i32 1 %tmp658 = insertelement <4 x i32> %tmp657, i32 %tmp655, i32 2 @@ -1399,7 +1399,7 @@ %tmp662 = extractelement <4 x float> %tmp660, i32 1 %tmp663 = bitcast float %tmp646 to i32 %tmp664 = bitcast float %tmp648 to i32 - %tmp665 = bitcast float 0.000000e+00 to i32 + %tmp665 = bitcast float 0.0e+00 to i32 %tmp666 = insertelement <4 x i32> undef, i32 %tmp663, i32 0 %tmp667 = insertelement <4 x i32> %tmp666, i32 %tmp664, i32 1 %tmp668 = insertelement <4 x i32> %tmp667, i32 %tmp665, i32 2 @@ -1407,31 +1407,31 @@ %tmp670 = call <4 x float> @llvm.SI.image.sample.l.v4i32(<4 x i32> %tmp669, <8 x i32> %tmp126, <4 x i32> %tmp128.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0) %tmp671 = extractelement <4 x float> %tmp670, i32 0 %tmp672 = extractelement <4 x float> %tmp670, i32 1 - %tmp673 = fsub float -0.000000e+00, %tmp662 - %tmp674 = fadd float 1.000000e+00, %tmp673 - %tmp675 = fsub float -0.000000e+00, %tmp672 - %tmp676 = fadd float 1.000000e+00, %tmp675 - %tmp677 = fmul float %tmp674, 2.500000e-01 - %tmp678 = fmul float %tmp676, 2.500000e-01 - %tmp679 = fsub float -0.000000e+00, %tmp677 + %tmp673 = fsub float -0.0e+00, %tmp662 + %tmp674 = fadd float 1.0e+00, %tmp673 + %tmp675 = fsub float -0.0e+00, %tmp672 + %tmp676 = fadd float 1.0e+00, %tmp675 + %tmp677 = fmul float %tmp674, 2.5e-01 + %tmp678 = fmul float %tmp676, 2.5e-01 + %tmp679 = fsub float -0.0e+00, %tmp677 %tmp680 = fadd float %tmp661, %tmp679 - %tmp681 = fsub float -0.000000e+00, %tmp678 + %tmp681 = fsub float -0.0e+00, %tmp678 %tmp682 = fadd float %tmp671, %tmp681 %tmp683 = fmul float %tmp640, %temp88.0 %tmp684 = fadd float %tmp683, %temp89.0 %tmp685 = fmul float %tmp640, %temp90.0 %tmp686 = fadd float %tmp685, %temp91.0 - %tmp687 = call float @llvm.AMDGPU.clamp.f32(float %tmp684, float 0.000000e+00, float 1.000000e+00) - %tmp688 = call float @llvm.AMDGPU.clamp.f32(float %tmp686, float 0.000000e+00, float 1.000000e+00) - %tmp689 = fsub float -0.000000e+00, %tmp687 + %tmp687 = call float @llvm.AMDGPU.clamp.f32(float %tmp684, float 0.0e+00, float 1.0e+00) + %tmp688 = call float @llvm.AMDGPU.clamp.f32(float %tmp686, float 0.0e+00, float 1.0e+00) + %tmp689 = fsub float -0.0e+00, %tmp687 %tmp690 = fadd float %tmp661, %tmp689 - %tmp691 = fsub float -0.000000e+00, %tmp688 + %tmp691 = fsub float -0.0e+00, %tmp688 %tmp692 = fadd float %tmp671, %tmp691 %tmp693 = fmul float %tmp661, %tmp661 %tmp694 = fmul float %tmp671, %tmp671 - %tmp695 = fsub float -0.000000e+00, %tmp693 + %tmp695 = fsub float -0.0e+00, %tmp693 %tmp696 = fadd float %tmp680, %tmp695 - %tmp697 = fsub float -0.000000e+00, %tmp694 + %tmp697 = fsub float -0.0e+00, %tmp694 %tmp698 = fadd float %tmp682, %tmp697 %tmp699 = fcmp uge float %tmp696, %tmp74 %tmp700 = select i1 %tmp699, float %tmp696, float %tmp74 @@ -1441,34 +1441,34 @@ %tmp704 = fadd float %tmp703, %tmp700 %tmp705 = fmul float %tmp692, %tmp692 %tmp706 = fadd float %tmp705, %tmp702 - %tmp707 = fdiv float 1.000000e+00, %tmp704 - %tmp708 = fdiv float 1.000000e+00, %tmp706 + %tmp707 = fdiv float 1.0e+00, %tmp704 + %tmp708 = fdiv float 1.0e+00, %tmp706 %tmp709 = fmul float %tmp700, %tmp707 %tmp710 = fmul float %tmp702, %tmp708 - %tmp711 = fcmp oge float %tmp690, 0.000000e+00 + %tmp711 = fcmp oge float %tmp690, 0.0e+00 %tmp712 = sext i1 %tmp711 to i32 %tmp713 = bitcast i32 %tmp712 to float %tmp714 = bitcast float %tmp713 to i32 %tmp715 = icmp ne i32 %tmp714, 0 - %.229 = select i1 %tmp715, float 1.000000e+00, float %tmp709 - %tmp716 = fcmp oge float %tmp692, 0.000000e+00 + %.229 = select i1 %tmp715, float 1.0e+00, float %tmp709 + %tmp716 = fcmp oge float %tmp692, 0.0e+00 %tmp717 = sext i1 %tmp716 to i32 %tmp718 = bitcast i32 %tmp717 to float %tmp719 = bitcast float %tmp718 to i32 %tmp720 = icmp ne i32 %tmp719, 0 - %temp28.0 = select i1 %tmp720, float 1.000000e+00, float %tmp710 - %one.sub.a.i25 = fsub float 1.000000e+00, %tmp652 + %temp28.0 = select i1 %tmp720, float 1.0e+00, float %tmp710 + %one.sub.a.i25 = fsub float 1.0e+00, %tmp652 %one.sub.ac.i26 = fmul float %one.sub.a.i25, %.229 %mul.i27 = fmul float %temp28.0, %.229 %result.i28 = fadd float %mul.i27, %one.sub.ac.i26 %tmp721 = call float @llvm.pow.f32(float %result.i28, float %tmp75) %tmp722 = fmul float %tmp721, %tmp78 %tmp723 = fadd float %tmp722, %tmp79 - %tmp724 = call float @llvm.AMDGPU.clamp.f32(float %tmp723, float 0.000000e+00, float 1.000000e+00) + %tmp724 = call float @llvm.AMDGPU.clamp.f32(float %tmp723, float 0.0e+00, float 1.0e+00) %tmp725 = fmul float %tmp724, %tmp724 - %tmp726 = fmul float 2.000000e+00, %tmp724 - %tmp727 = fsub float -0.000000e+00, %tmp726 - %tmp728 = fadd float 3.000000e+00, %tmp727 + %tmp726 = fmul float 2.0e+00, %tmp724 + %tmp727 = fsub float -0.0e+00, %tmp726 + %tmp728 = fadd float 3.0e+00, %tmp727 %tmp729 = fmul float %tmp725, %tmp728 %tmp730 = fmul float %tmp541, %tmp729 %tmp731 = fmul float %tmp542, %tmp729 @@ -1479,15 +1479,15 @@ %tmp736 = fadd float %tmp735, %tmp527 %tmp737 = fmul float %tmp732, %tmp508 %tmp738 = fadd float %tmp737, %tmp528 - %one.sub.a.i23 = fsub float 1.000000e+00, %tmp229 + %one.sub.a.i23 = fsub float 1.0e+00, %tmp229 %result.i24 = fadd float %tmp283, %one.sub.a.i23 - %one.sub.a.i21 = fsub float 1.000000e+00, %tmp36 + %one.sub.a.i21 = fsub float 1.0e+00, %tmp36 %result.i22 = fadd float %tmp294, %one.sub.a.i21 - %one.sub.a.i19 = fsub float 1.000000e+00, %tmp36 + %one.sub.a.i19 = fsub float 1.0e+00, %tmp36 %result.i20 = fadd float %tmp295, %one.sub.a.i19 - %one.sub.a.i17 = fsub float 1.000000e+00, %tmp36 + %one.sub.a.i17 = fsub float 1.0e+00, %tmp36 %result.i18 = fadd float %tmp296, %one.sub.a.i17 - %one.sub.a.i15 = fsub float 1.000000e+00, %tmp37 + %one.sub.a.i15 = fsub float 1.0e+00, %tmp37 %result.i16 = fadd float %result.i24, %one.sub.a.i15 %tmp739 = fmul float %result.i22, %result.i16 %tmp740 = fmul float %result.i20, %result.i16 @@ -1504,26 +1504,26 @@ %tmp751 = fmul float %tmp750, %tmp750 %tmp752 = fmul float %tmp751, %tmp49 %tmp753 = fadd float %tmp752, %tmp50 - %tmp754 = call float @llvm.AMDGPU.clamp.f32(float %tmp753, float 0.000000e+00, float 1.000000e+00) - %tmp755 = fsub float -0.000000e+00, %tmp754 - %tmp756 = fadd float 1.000000e+00, %tmp755 + %tmp754 = call float @llvm.AMDGPU.clamp.f32(float %tmp753, float 0.0e+00, float 1.0e+00) + %tmp755 = fsub float -0.0e+00, %tmp754 + %tmp756 = fadd float 1.0e+00, %tmp755 %tmp757 = fmul float %tmp32, %tmp756 %tmp758 = fmul float %tmp32, %tmp756 %tmp759 = fmul float %tmp32, %tmp756 %tmp760 = fmul float %tmp33, %tmp756 - %one.sub.a.i11 = fsub float 1.000000e+00, %tmp757 + %one.sub.a.i11 = fsub float 1.0e+00, %tmp757 %one.sub.ac.i12 = fmul float %one.sub.a.i11, %tmp742 %mul.i13 = fmul float %tmp30, %tmp742 %result.i14 = fadd float %mul.i13, %one.sub.ac.i12 - %one.sub.a.i7 = fsub float 1.000000e+00, %tmp758 + %one.sub.a.i7 = fsub float 1.0e+00, %tmp758 %one.sub.ac.i8 = fmul float %one.sub.a.i7, %tmp743 %mul.i9 = fmul float %tmp30, %tmp743 %result.i10 = fadd float %mul.i9, %one.sub.ac.i8 - %one.sub.a.i3 = fsub float 1.000000e+00, %tmp759 + %one.sub.a.i3 = fsub float 1.0e+00, %tmp759 %one.sub.ac.i4 = fmul float %one.sub.a.i3, %tmp744 %mul.i5 = fmul float %tmp30, %tmp744 %result.i6 = fadd float %mul.i5, %one.sub.ac.i4 - %one.sub.a.i1 = fsub float 1.000000e+00, %tmp760 + %one.sub.a.i1 = fsub float 1.0e+00, %tmp760 %one.sub.ac.i = fmul float %one.sub.a.i1, %tmp367 %mul.i = fmul float %tmp31, %tmp367 %result.i2 = fadd float %mul.i, %one.sub.ac.i @@ -1533,15 +1533,15 @@ %tmp764 = select i1 %tmp763, float %result.i10, float 0x3E6FFFFE60000000 %tmp765 = fcmp uge float %result.i6, 0x3E6FFFFE60000000 %tmp766 = select i1 %tmp765, float %result.i6, float 0x3E6FFFFE60000000 - %tmp767 = fcmp uge float %tmp762, 6.550400e+04 - %tmp768 = select i1 %tmp767, float 6.550400e+04, float %tmp762 - %tmp769 = fcmp uge float %tmp764, 6.550400e+04 - %tmp770 = select i1 %tmp769, float 6.550400e+04, float %tmp764 - %tmp771 = fcmp uge float %tmp766, 6.550400e+04 - %tmp772 = select i1 %tmp771, float 6.550400e+04, float %tmp766 + %tmp767 = fcmp uge float %tmp762, 6.5504e+04 + %tmp768 = select i1 %tmp767, float 6.5504e+04, float %tmp762 + %tmp769 = fcmp uge float %tmp764, 6.5504e+04 + %tmp770 = select i1 %tmp769, float 6.5504e+04, float %tmp764 + %tmp771 = fcmp uge float %tmp766, 6.5504e+04 + %tmp772 = select i1 %tmp771, float 6.5504e+04, float %tmp766 %tmp773 = fmul float %result.i2, %tmp51 %tmp774 = fadd float %tmp773, %tmp52 - %tmp775 = call float @llvm.AMDGPU.clamp.f32(float %tmp774, float 0.000000e+00, float 1.000000e+00) + %tmp775 = call float @llvm.AMDGPU.clamp.f32(float %tmp774, float 0.0e+00, float 1.0e+00) %tmp776 = call i32 @llvm.SI.packf16(float %tmp768, float %tmp770) %tmp777 = bitcast i32 %tmp776 to float %tmp778 = call i32 @llvm.SI.packf16(float %tmp772, float %tmp775) Index: test/CodeGen/AMDGPU/si-spill-cf.ll =================================================================== --- test/CodeGen/AMDGPU/si-spill-cf.ll +++ test/CodeGen/AMDGPU/si-spill-cf.ll @@ -78,31 +78,31 @@ br label %LOOP LOOP: ; preds = %ENDIF2795, %main_body - %temp894.0 = phi float [ 0.000000e+00, %main_body ], [ %temp894.1, %ENDIF2795 ] + %temp894.0 = phi float [ 0.0e+00, %main_body ], [ %temp894.1, %ENDIF2795 ] %temp18.0 = phi float [ undef, %main_body ], [ %temp18.1, %ENDIF2795 ] %67 = icmp sgt i32 undef, 4 br i1 %67, label %ENDLOOP, label %ENDIF ENDLOOP: ; preds = %ELSE2566, %LOOP - %one.sub.a.i = fsub float 1.000000e+00, %0 + %one.sub.a.i = fsub float 1.0e+00, %0 %one.sub.ac.i = fmul float %one.sub.a.i, undef %result.i = fadd float fmul (float undef, float undef), %one.sub.ac.i - call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float undef, float %result.i, float undef, float 1.000000e+00) + call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 0, float undef, float %result.i, float undef, float 1.0e+00) ret void ENDIF: ; preds = %LOOP %68 = fsub float %2, undef %69 = fsub float %3, undef %70 = fsub float %4, undef - %71 = fmul float %68, 0.000000e+00 + %71 = fmul float %68, 0.0e+00 %72 = fmul float %69, undef %73 = fmul float %70, undef %74 = fsub float %6, undef %75 = fsub float %7, undef %76 = fmul float %74, undef - %77 = fmul float %75, 0.000000e+00 + %77 = fmul float %75, 0.0e+00 %78 = call float @llvm.minnum.f32(float %73, float %77) - %79 = call float @llvm.maxnum.f32(float %71, float 0.000000e+00) + %79 = call float @llvm.maxnum.f32(float %71, float 0.0e+00) %80 = call float @llvm.maxnum.f32(float %72, float %76) %81 = call float @llvm.maxnum.f32(float undef, float %78) %82 = call float @llvm.minnum.f32(float %79, float %80) @@ -116,7 +116,7 @@ %90 = fsub float %17, undef %91 = fsub float %18, undef %92 = fsub float %19, undef - %93 = fmul float %90, 0.000000e+00 + %93 = fmul float %90, 0.0e+00 %94 = fmul float %91, undef %95 = fmul float %92, undef %96 = call float @llvm.minnum.f32(float %88, float %94) @@ -128,8 +128,8 @@ %102 = call float @llvm.minnum.f32(float %101, float %98) %103 = fsub float %30, undef %104 = fsub float %31, undef - %105 = fmul float %103, 0.000000e+00 - %106 = fmul float %104, 0.000000e+00 + %105 = fmul float %103, 0.0e+00 + %106 = fmul float %104, 0.0e+00 %107 = call float @llvm.minnum.f32(float undef, float %105) %108 = call float @llvm.maxnum.f32(float undef, float %106) %109 = call float @llvm.maxnum.f32(float undef, float %107) @@ -138,7 +138,7 @@ %112 = fsub float %32, undef %113 = fsub float %33, undef %114 = fsub float %34, undef - %115 = fmul float %112, 0.000000e+00 + %115 = fmul float %112, 0.0e+00 %116 = fmul float %113, undef %117 = fmul float %114, undef %118 = fsub float %35, undef @@ -155,7 +155,7 @@ %129 = fsub float %38, undef %130 = fsub float %39, undef %131 = fsub float %40, undef - %132 = fmul float %129, 0.000000e+00 + %132 = fmul float %129, 0.0e+00 %133 = fmul float %130, undef %134 = fmul float %131, undef %135 = fsub float %41, undef @@ -172,14 +172,14 @@ %146 = fsub float %44, undef %147 = fsub float %45, undef %148 = fsub float %46, undef - %149 = fmul float %146, 0.000000e+00 - %150 = fmul float %147, 0.000000e+00 + %149 = fmul float %146, 0.0e+00 + %150 = fmul float %147, 0.0e+00 %151 = fmul float %148, undef %152 = fsub float %47, undef %153 = fsub float %48, undef %154 = fsub float %49, undef %155 = fmul float %152, undef - %156 = fmul float %153, 0.000000e+00 + %156 = fmul float %153, 0.0e+00 %157 = fmul float %154, undef %158 = call float @llvm.minnum.f32(float %149, float %155) %159 = call float @llvm.minnum.f32(float %150, float %156) @@ -190,12 +190,12 @@ %164 = fsub float %51, undef %165 = fsub float %52, undef %166 = fmul float %163, undef - %167 = fmul float %164, 0.000000e+00 - %168 = fmul float %165, 0.000000e+00 + %167 = fmul float %164, 0.0e+00 + %168 = fmul float %165, 0.0e+00 %169 = fsub float %53, undef %170 = fsub float %54, undef %171 = fsub float %55, undef - %172 = fdiv float 1.000000e+00, %temp18.0 + %172 = fdiv float 1.0e+00, %temp18.0 %173 = fmul float %169, undef %174 = fmul float %170, undef %175 = fmul float %171, %172 @@ -207,7 +207,7 @@ %181 = fsub float %62, undef %182 = fsub float %63, undef %183 = fsub float %64, undef - %184 = fmul float %181, 0.000000e+00 + %184 = fmul float %181, 0.0e+00 %185 = fmul float %182, undef %186 = fmul float %183, undef %187 = fsub float %65, undef @@ -222,7 +222,7 @@ %.temp292.7 = select i1 undef, float %162, float undef %temp292.9 = select i1 false, float %180, float %.temp292.7 %.temp292.9 = select i1 undef, float undef, float %temp292.9 - %196 = fcmp ogt float undef, 0.000000e+00 + %196 = fcmp ogt float undef, 0.0e+00 %197 = fcmp olt float undef, %195 %198 = and i1 %196, %197 %199 = fcmp olt float undef, %.temp292.9 @@ -234,7 +234,7 @@ br i1 false, label %ENDIF2582, label %ELSE2584 ELSE2566: ; preds = %ENDIF - %201 = fcmp oeq float %temp292.11, 1.000000e+04 + %201 = fcmp oeq float %temp292.11, 1.0e+04 br i1 %201, label %ENDLOOP, label %ELSE2593 ENDIF2564: ; preds = %ENDIF2594, %ENDIF2588 @@ -245,8 +245,8 @@ %204 = call float @llvm.maxnum.f32(float undef, float %203) %205 = call float @llvm.minnum.f32(float %204, float undef) %206 = call float @llvm.minnum.f32(float %205, float undef) - %207 = fcmp ogt float undef, 0.000000e+00 - %208 = fcmp olt float undef, 1.000000e+00 + %207 = fcmp ogt float undef, 0.0e+00 + %208 = fcmp olt float undef, 1.0e+00 %209 = and i1 %207, %208 %210 = fcmp olt float undef, %206 %211 = and i1 %209, %210 @@ -257,7 +257,7 @@ ENDIF2582: ; preds = %ELSE2584, %IF2565 %212 = fadd float %1, undef - %213 = fadd float 0.000000e+00, %212 + %213 = fadd float 0.0e+00, %212 %floor = call float @llvm.floor.f32(float %213) %214 = fsub float %213, %floor br i1 undef, label %IF2589, label %ELSE2590 @@ -269,7 +269,7 @@ br label %ENDIF2588 ENDIF2588: ; preds = %ELSE2590, %IF2589 - %215 = fsub float 1.000000e+00, %214 + %215 = fsub float 1.0e+00, %214 %216 = call float @llvm.sqrt.f32(float %215) %217 = fmul float %216, undef %218 = fadd float %217, undef @@ -288,7 +288,7 @@ br i1 %224, label %ENDIF2594, label %ELSE2632 ENDIF2594: ; preds = %ELSE2788, %ELSE2785, %ELSE2782, %ELSE2779, %IF2775, %ELSE2761, %ELSE2758, %IF2757, %ELSE2704, %ELSE2686, %ELSE2671, %ELSE2668, %IF2667, %ELSE2632, %ELSE2596, %ELSE2593 - %temp894.2 = phi float [ 0.000000e+00, %IF2667 ], [ 0.000000e+00, %ELSE2671 ], [ 0.000000e+00, %IF2757 ], [ 0.000000e+00, %ELSE2761 ], [ %temp894.0, %ELSE2758 ], [ 0.000000e+00, %IF2775 ], [ 0.000000e+00, %ELSE2779 ], [ 0.000000e+00, %ELSE2782 ], [ %.2848, %ELSE2788 ], [ 0.000000e+00, %ELSE2785 ], [ 0.000000e+00, %ELSE2593 ], [ 0.000000e+00, %ELSE2632 ], [ 0.000000e+00, %ELSE2704 ], [ 0.000000e+00, %ELSE2686 ], [ 0.000000e+00, %ELSE2668 ], [ 0.000000e+00, %ELSE2596 ] + %temp894.2 = phi float [ 0.0e+00, %IF2667 ], [ 0.0e+00, %ELSE2671 ], [ 0.0e+00, %IF2757 ], [ 0.0e+00, %ELSE2761 ], [ %temp894.0, %ELSE2758 ], [ 0.0e+00, %IF2775 ], [ 0.0e+00, %ELSE2779 ], [ 0.0e+00, %ELSE2782 ], [ %.2848, %ELSE2788 ], [ 0.0e+00, %ELSE2785 ], [ 0.0e+00, %ELSE2593 ], [ 0.0e+00, %ELSE2632 ], [ 0.0e+00, %ELSE2704 ], [ 0.0e+00, %ELSE2686 ], [ 0.0e+00, %ELSE2668 ], [ 0.0e+00, %ELSE2596 ] %225 = fmul float %temp894.2, undef br label %ENDIF2564 @@ -348,12 +348,12 @@ br i1 undef, label %ENDIF2594, label %ELSE2785 ELSE2785: ; preds = %ELSE2782 - %239 = fcmp olt float undef, 0.000000e+00 + %239 = fcmp olt float undef, 0.0e+00 br i1 %239, label %ENDIF2594, label %ELSE2788 ELSE2788: ; preds = %ELSE2785 - %240 = fcmp olt float 0.000000e+00, undef - %.2848 = select i1 %240, float -1.000000e+00, float 1.000000e+00 + %240 = fcmp olt float 0.0e+00, undef + %.2848 = select i1 %240, float -1.0e+00, float 1.0e+00 br label %ENDIF2594 ELSE2797: ; preds = %ENDIF2564 @@ -375,8 +375,8 @@ %256 = call float @llvm.maxnum.f32(float %253, float %254) %257 = call float @llvm.maxnum.f32(float %256, float undef) %258 = call float @llvm.minnum.f32(float undef, float %255) - %259 = fcmp ogt float %257, 0.000000e+00 - %260 = fcmp olt float %257, 1.000000e+00 + %259 = fcmp ogt float %257, 0.0e+00 + %260 = fcmp olt float %257, 1.0e+00 %261 = and i1 %259, %260 %262 = fcmp olt float %257, %258 %263 = and i1 %261, %262 @@ -394,7 +394,7 @@ %266 = fsub float %22, undef %267 = fmul float %264, undef %268 = fmul float %265, undef - %269 = fmul float %266, 0.000000e+00 + %269 = fmul float %266, 0.0e+00 %270 = fsub float %23, undef %271 = fsub float %24, undef %272 = fsub float %25, undef @@ -408,8 +408,8 @@ %280 = call float @llvm.maxnum.f32(float %279, float undef) %281 = call float @llvm.minnum.f32(float undef, float %277) %282 = call float @llvm.minnum.f32(float %281, float %278) - %283 = fcmp ogt float %280, 0.000000e+00 - %284 = fcmp olt float %280, 1.000000e+00 + %283 = fcmp ogt float %280, 0.0e+00 + %284 = fcmp olt float %280, 1.0e+00 %285 = and i1 %283, %284 %286 = fcmp olt float %280, %282 %287 = and i1 %285, %286 @@ -420,7 +420,7 @@ %289 = fsub float %27, undef %290 = fsub float %28, undef %291 = fmul float %288, undef - %292 = fmul float %289, 0.000000e+00 + %292 = fmul float %289, 0.0e+00 %293 = fmul float %290, undef %294 = fsub float %29, undef %295 = fmul float %294, undef @@ -430,8 +430,8 @@ %299 = call float @llvm.maxnum.f32(float %296, float %297) %300 = call float @llvm.maxnum.f32(float %299, float undef) %301 = call float @llvm.minnum.f32(float undef, float %298) - %302 = fcmp ogt float %300, 0.000000e+00 - %303 = fcmp olt float %300, 1.000000e+00 + %302 = fcmp ogt float %300, 0.0e+00 + %303 = fcmp olt float %300, 1.0e+00 %304 = and i1 %302, %303 %305 = fcmp olt float %300, %301 %306 = and i1 %304, %305 @@ -454,7 +454,7 @@ %308 = fsub float %57, undef %309 = fsub float %58, undef %310 = fmul float %307, undef - %311 = fmul float %308, 0.000000e+00 + %311 = fmul float %308, 0.0e+00 %312 = fmul float %309, undef %313 = fsub float %59, undef %314 = fsub float %60, undef @@ -467,15 +467,15 @@ %321 = call float @llvm.maxnum.f32(float %312, float %318) %322 = call float @llvm.minnum.f32(float %319, float %320) %323 = call float @llvm.minnum.f32(float %322, float %321) - %324 = fcmp ogt float undef, 0.000000e+00 - %325 = fcmp olt float undef, 1.000000e+00 + %324 = fcmp ogt float undef, 0.0e+00 + %325 = fcmp olt float undef, 1.0e+00 %326 = and i1 %324, %325 %327 = fcmp olt float undef, %323 %328 = and i1 %326, %327 br i1 %328, label %ENDIF2795, label %ELSE2824 ELSE2824: ; preds = %ELSE2821 - %.2849 = select i1 undef, float 0.000000e+00, float 1.000000e+00 + %.2849 = select i1 undef, float 0.0e+00, float 1.0e+00 br label %ENDIF2795 } Index: test/CodeGen/AMDGPU/subreg-coalescer-crash.ll =================================================================== --- test/CodeGen/AMDGPU/subreg-coalescer-crash.ll +++ test/CodeGen/AMDGPU/subreg-coalescer-crash.ll @@ -52,7 +52,7 @@ br i1 undef, label %bb4, label %bb6 bb2: ; preds = %bb4, %bb - %tmp = phi float [ %tmp5, %bb4 ], [ 0.000000e+00, %bb ] + %tmp = phi float [ %tmp5, %bb4 ], [ 0.0e+00, %bb ] br i1 undef, label %bb9, label %bb13 bb4: ; preds = %bb7, %bb6, %bb1 @@ -76,7 +76,7 @@ br i1 undef, label %bb23, label %bb24 bb14: ; preds = %bb27, %bb24, %bb9 - %tmp15 = phi float [ %tmp12, %bb9 ], [ undef, %bb27 ], [ 0.000000e+00, %bb24 ] + %tmp15 = phi float [ %tmp12, %bb9 ], [ undef, %bb27 ], [ 0.0e+00, %bb24 ] %tmp16 = phi float [ %tmp11, %bb9 ], [ undef, %bb27 ], [ %tmp25, %bb24 ] %tmp17 = fmul float 10.5, %tmp16 %tmp18 = fmul float 11.5, %tmp15 @@ -87,7 +87,7 @@ br i1 undef, label %bb24, label %bb26 bb24: ; preds = %bb26, %bb23, %bb13 - %tmp25 = phi float [ %tmp, %bb13 ], [ %tmp, %bb26 ], [ 0.000000e+00, %bb23 ] + %tmp25 = phi float [ %tmp, %bb13 ], [ %tmp, %bb26 ], [ 0.0e+00, %bb23 ] br i1 undef, label %bb27, label %bb14 bb26: ; preds = %bb23 Index: test/CodeGen/AMDGPU/swizzle-export.ll =================================================================== --- test/CodeGen/AMDGPU/swizzle-export.ll +++ test/CodeGen/AMDGPU/swizzle-export.ll @@ -18,52 +18,52 @@ %7 = extractelement <4 x float> %6, i32 2 %8 = load <4 x float>, <4 x float> addrspace(8)* null %9 = extractelement <4 x float> %8, i32 0 - %10 = fmul float 0.000000e+00, %9 + %10 = fmul float 0.0e+00, %9 %11 = load <4 x float>, <4 x float> addrspace(8)* null %12 = extractelement <4 x float> %11, i32 0 %13 = fmul float %5, %12 %14 = load <4 x float>, <4 x float> addrspace(8)* null %15 = extractelement <4 x float> %14, i32 0 - %16 = fmul float 0.000000e+00, %15 + %16 = fmul float 0.0e+00, %15 %17 = load <4 x float>, <4 x float> addrspace(8)* null %18 = extractelement <4 x float> %17, i32 0 - %19 = fmul float 0.000000e+00, %18 + %19 = fmul float 0.0e+00, %18 %20 = load <4 x float>, <4 x float> addrspace(8)* null %21 = extractelement <4 x float> %20, i32 0 %22 = fmul float %7, %21 %23 = load <4 x float>, <4 x float> addrspace(8)* null %24 = extractelement <4 x float> %23, i32 0 - %25 = fmul float 0.000000e+00, %24 + %25 = fmul float 0.0e+00, %24 %26 = load <4 x float>, <4 x float> addrspace(8)* null %27 = extractelement <4 x float> %26, i32 0 - %28 = fmul float 0.000000e+00, %27 + %28 = fmul float 0.0e+00, %27 %29 = load <4 x float>, <4 x float> addrspace(8)* null %30 = extractelement <4 x float> %29, i32 0 - %31 = fmul float 0.000000e+00, %30 + %31 = fmul float 0.0e+00, %30 %32 = load <4 x float>, <4 x float> addrspace(8)* null %33 = extractelement <4 x float> %32, i32 0 - %34 = fmul float 0.000000e+00, %33 + %34 = fmul float 0.0e+00, %33 %35 = load <4 x float>, <4 x float> addrspace(8)* null %36 = extractelement <4 x float> %35, i32 0 - %37 = fmul float 0.000000e+00, %36 + %37 = fmul float 0.0e+00, %36 %38 = load <4 x float>, <4 x float> addrspace(8)* null %39 = extractelement <4 x float> %38, i32 0 - %40 = fmul float 1.000000e+00, %39 + %40 = fmul float 1.0e+00, %39 %41 = load <4 x float>, <4 x float> addrspace(8)* null %42 = extractelement <4 x float> %41, i32 0 - %43 = fmul float 0.000000e+00, %42 + %43 = fmul float 0.0e+00, %42 %44 = load <4 x float>, <4 x float> addrspace(8)* null %45 = extractelement <4 x float> %44, i32 0 - %46 = fmul float 0.000000e+00, %45 + %46 = fmul float 0.0e+00, %45 %47 = load <4 x float>, <4 x float> addrspace(8)* null %48 = extractelement <4 x float> %47, i32 0 - %49 = fmul float 0.000000e+00, %48 + %49 = fmul float 0.0e+00, %48 %50 = load <4 x float>, <4 x float> addrspace(8)* null %51 = extractelement <4 x float> %50, i32 0 - %52 = fmul float 0.000000e+00, %51 + %52 = fmul float 0.0e+00, %51 %53 = load <4 x float>, <4 x float> addrspace(8)* null %54 = extractelement <4 x float> %53, i32 0 - %55 = fmul float 1.000000e+00, %54 + %55 = fmul float 1.0e+00, %54 %56 = insertelement <4 x float> undef, float %0, i32 0 %57 = insertelement <4 x float> %56, float %1, i32 1 %58 = insertelement <4 x float> %57, float %2, i32 2 @@ -115,7 +115,7 @@ %13 = insertelement <4 x float> undef, float %6, i32 0 %14 = insertelement <4 x float> %13, float %8, i32 1 %15 = insertelement <4 x float> %14, float %10, i32 2 - %16 = insertelement <4 x float> %15, float 0.000000e+00, i32 3 + %16 = insertelement <4 x float> %15, float 0.0e+00, i32 3 call void @llvm.R600.store.swizzle(<4 x float> %16, i32 0, i32 2) ret void } Index: test/CodeGen/AMDGPU/unsupported-cc.ll =================================================================== --- test/CodeGen/AMDGPU/unsupported-cc.ll +++ test/CodeGen/AMDGPU/unsupported-cc.ll @@ -28,7 +28,7 @@ ; CHECK-LABEL: {{^}}ult_float: ; CHECK: SETGE * T{{[0-9]}}.[[CHAN:[XYZW]]], KC0[2].Z, literal.x -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) ; CHECK-NEXT: SETE T{{[0-9]\.[XYZW]}}, PV.[[CHAN]], 0.0 ; CHECK-NEXT: LSHR * define void @ult_float(float addrspace(1)* %out, float %in) { @@ -42,7 +42,7 @@ ; CHECK-LABEL: {{^}}ult_float_native: ; CHECK: LSHR ; CHECK-NEXT: SETGE {{\*? *}}T{{[0-9]\.[XYZW]}}, KC0[2].Z, {{literal\.[xy]}} -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @ult_float_native(float addrspace(1)* %out, float %in) { entry: %0 = fcmp ult float %in, 5.0 @@ -54,7 +54,7 @@ ; CHECK-LABEL: {{^}}olt: ; CHECK: LSHR ; CHECK-NEXT: SETGT {{\*? *}}T{{[0-9]+\.[XYZW]}}, {{literal\.[xy]}}, KC0[2].Z -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @olt(float addrspace(1)* %out, float %in) { entry: %0 = fcmp olt float %in, 5.0 @@ -89,7 +89,7 @@ ; CHECK-LABEL: {{^}}ule_float: ; CHECK: SETGT * T{{[0-9]}}.[[CHAN:[XYZW]]], KC0[2].Z, literal.x -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) ; CHECK-NEXT: SETE T{{[0-9]\.[XYZW]}}, PV.[[CHAN]], 0.0 ; CHECK-NEXT: LSHR * define void @ule_float(float addrspace(1)* %out, float %in) { @@ -103,7 +103,7 @@ ; CHECK-LABEL: {{^}}ule_float_native: ; CHECK: LSHR ; CHECK-NEXT: SETGT {{\*? *}}T{{[0-9]\.[XYZW]}}, KC0[2].Z, {{literal\.[xy]}} -; CHECK-NEXT: 1084227584(5.000000e+00) +; CHECK-NEXT: 1084227584(5.0e+00) define void @ule_float_native(float addrspace(1)* %out, float %in) { entry: %0 = fcmp ule float %in, 5.0 @@ -115,7 +115,7 @@ ; CHECK-LABEL: {{^}}ole: ; CHECK: LSHR ; CHECK-NEXT: SETGE {{\*? *}}T{{[0-9]\.[XYZW]}}, {{literal\.[xy]}}, KC0[2].Z -; CHECK-NEXT:1084227584(5.000000e+00) +; CHECK-NEXT:1084227584(5.0e+00) define void @ole(float addrspace(1)* %out, float %in) { entry: %0 = fcmp ole float %in, 5.0 Index: test/CodeGen/AMDGPU/vgpr-spill-emergency-stack-slot-compute.ll =================================================================== --- test/CodeGen/AMDGPU/vgpr-spill-emergency-stack-slot-compute.ll +++ test/CodeGen/AMDGPU/vgpr-spill-emergency-stack-slot-compute.ll @@ -45,135 +45,135 @@ br label %bb12 bb12: ; preds = %bb145, %bb - %tmp13 = phi float [ 0.000000e+00, %bb ], [ %tmp338, %bb145 ] - %tmp14 = phi float [ 0.000000e+00, %bb ], [ %tmp337, %bb145 ] - %tmp15 = phi float [ 0.000000e+00, %bb ], [ %tmp336, %bb145 ] - %tmp16 = phi float [ 0.000000e+00, %bb ], [ %tmp339, %bb145 ] - %tmp17 = phi float [ 0.000000e+00, %bb ], [ %tmp335, %bb145 ] - %tmp18 = phi float [ 0.000000e+00, %bb ], [ %tmp334, %bb145 ] - %tmp19 = phi float [ 0.000000e+00, %bb ], [ %tmp333, %bb145 ] - %tmp20 = phi float [ 0.000000e+00, %bb ], [ %tmp340, %bb145 ] - %tmp21 = phi float [ 0.000000e+00, %bb ], [ %tmp332, %bb145 ] - %tmp22 = phi float [ 0.000000e+00, %bb ], [ %tmp331, %bb145 ] - %tmp23 = phi float [ 0.000000e+00, %bb ], [ %tmp330, %bb145 ] - %tmp24 = phi float [ 0.000000e+00, %bb ], [ %tmp341, %bb145 ] - %tmp25 = phi float [ 0.000000e+00, %bb ], [ %tmp329, %bb145 ] - %tmp26 = phi float [ 0.000000e+00, %bb ], [ %tmp328, %bb145 ] - %tmp27 = phi float [ 0.000000e+00, %bb ], [ %tmp327, %bb145 ] - %tmp28 = phi float [ 0.000000e+00, %bb ], [ %tmp342, %bb145 ] - %tmp29 = phi float [ 0.000000e+00, %bb ], [ %tmp326, %bb145 ] - %tmp30 = phi float [ 0.000000e+00, %bb ], [ %tmp325, %bb145 ] - %tmp31 = phi float [ 0.000000e+00, %bb ], [ %tmp324, %bb145 ] - %tmp32 = phi float [ 0.000000e+00, %bb ], [ %tmp343, %bb145 ] - %tmp33 = phi float [ 0.000000e+00, %bb ], [ %tmp323, %bb145 ] - %tmp34 = phi float [ 0.000000e+00, %bb ], [ %tmp322, %bb145 ] - %tmp35 = phi float [ 0.000000e+00, %bb ], [ %tmp321, %bb145 ] - %tmp36 = phi float [ 0.000000e+00, %bb ], [ %tmp344, %bb145 ] - %tmp37 = phi float [ 0.000000e+00, %bb ], [ %tmp320, %bb145 ] - %tmp38 = phi float [ 0.000000e+00, %bb ], [ %tmp319, %bb145 ] - %tmp39 = phi float [ 0.000000e+00, %bb ], [ %tmp318, %bb145 ] - %tmp40 = phi float [ 0.000000e+00, %bb ], [ %tmp345, %bb145 ] - %tmp41 = phi float [ 0.000000e+00, %bb ], [ %tmp317, %bb145 ] - %tmp42 = phi float [ 0.000000e+00, %bb ], [ %tmp316, %bb145 ] - %tmp43 = phi float [ 0.000000e+00, %bb ], [ %tmp315, %bb145 ] - %tmp44 = phi float [ 0.000000e+00, %bb ], [ %tmp346, %bb145 ] - %tmp45 = phi float [ 0.000000e+00, %bb ], [ %tmp314, %bb145 ] - %tmp46 = phi float [ 0.000000e+00, %bb ], [ %tmp313, %bb145 ] - %tmp47 = phi float [ 0.000000e+00, %bb ], [ %tmp312, %bb145 ] - %tmp48 = phi float [ 0.000000e+00, %bb ], [ %tmp347, %bb145 ] - %tmp49 = phi float [ 0.000000e+00, %bb ], [ %tmp311, %bb145 ] - %tmp50 = phi float [ 0.000000e+00, %bb ], [ %tmp310, %bb145 ] - %tmp51 = phi float [ 0.000000e+00, %bb ], [ %tmp309, %bb145 ] - %tmp52 = phi float [ 0.000000e+00, %bb ], [ %tmp348, %bb145 ] - %tmp53 = phi float [ 0.000000e+00, %bb ], [ %tmp308, %bb145 ] - %tmp54 = phi float [ 0.000000e+00, %bb ], [ %tmp307, %bb145 ] - %tmp55 = phi float [ 0.000000e+00, %bb ], [ %tmp306, %bb145 ] - %tmp56 = phi float [ 0.000000e+00, %bb ], [ %tmp349, %bb145 ] - %tmp57 = phi float [ 0.000000e+00, %bb ], [ %tmp305, %bb145 ] - %tmp58 = phi float [ 0.000000e+00, %bb ], [ %tmp304, %bb145 ] - %tmp59 = phi float [ 0.000000e+00, %bb ], [ %tmp303, %bb145 ] - %tmp60 = phi float [ 0.000000e+00, %bb ], [ %tmp350, %bb145 ] - %tmp61 = phi float [ 0.000000e+00, %bb ], [ %tmp302, %bb145 ] - %tmp62 = phi float [ 0.000000e+00, %bb ], [ %tmp301, %bb145 ] - %tmp63 = phi float [ 0.000000e+00, %bb ], [ %tmp300, %bb145 ] - %tmp64 = phi float [ 0.000000e+00, %bb ], [ %tmp351, %bb145 ] - %tmp65 = phi float [ 0.000000e+00, %bb ], [ %tmp299, %bb145 ] - %tmp66 = phi float [ 0.000000e+00, %bb ], [ %tmp298, %bb145 ] - %tmp67 = phi float [ 0.000000e+00, %bb ], [ %tmp297, %bb145 ] - %tmp68 = phi float [ 0.000000e+00, %bb ], [ %tmp352, %bb145 ] - %tmp69 = phi float [ 0.000000e+00, %bb ], [ %tmp296, %bb145 ] - %tmp70 = phi float [ 0.000000e+00, %bb ], [ %tmp295, %bb145 ] - %tmp71 = phi float [ 0.000000e+00, %bb ], [ %tmp294, %bb145 ] - %tmp72 = phi float [ 0.000000e+00, %bb ], [ %tmp353, %bb145 ] - %tmp73 = phi float [ 0.000000e+00, %bb ], [ %tmp293, %bb145 ] - %tmp74 = phi float [ 0.000000e+00, %bb ], [ %tmp292, %bb145 ] - %tmp75 = phi float [ 0.000000e+00, %bb ], [ %tmp291, %bb145 ] - %tmp76 = phi float [ 0.000000e+00, %bb ], [ %tmp354, %bb145 ] - %tmp77 = phi float [ 0.000000e+00, %bb ], [ %tmp290, %bb145 ] - %tmp78 = phi float [ 0.000000e+00, %bb ], [ %tmp289, %bb145 ] - %tmp79 = phi float [ 0.000000e+00, %bb ], [ %tmp288, %bb145 ] - %tmp80 = phi float [ 0.000000e+00, %bb ], [ %tmp355, %bb145 ] - %tmp81 = phi float [ 0.000000e+00, %bb ], [ %tmp287, %bb145 ] - %tmp82 = phi float [ 0.000000e+00, %bb ], [ %tmp286, %bb145 ] - %tmp83 = phi float [ 0.000000e+00, %bb ], [ %tmp285, %bb145 ] - %tmp84 = phi float [ 0.000000e+00, %bb ], [ %tmp356, %bb145 ] - %tmp85 = phi float [ 0.000000e+00, %bb ], [ %tmp284, %bb145 ] - %tmp86 = phi float [ 0.000000e+00, %bb ], [ %tmp283, %bb145 ] - %tmp87 = phi float [ 0.000000e+00, %bb ], [ %tmp282, %bb145 ] - %tmp88 = phi float [ 0.000000e+00, %bb ], [ %tmp357, %bb145 ] - %tmp89 = phi float [ 0.000000e+00, %bb ], [ %tmp281, %bb145 ] - %tmp90 = phi float [ 0.000000e+00, %bb ], [ %tmp280, %bb145 ] - %tmp91 = phi float [ 0.000000e+00, %bb ], [ %tmp279, %bb145 ] - %tmp92 = phi float [ 0.000000e+00, %bb ], [ %tmp358, %bb145 ] - %tmp93 = phi float [ 0.000000e+00, %bb ], [ %tmp359, %bb145 ] - %tmp94 = phi float [ 0.000000e+00, %bb ], [ %tmp360, %bb145 ] - %tmp95 = phi float [ 0.000000e+00, %bb ], [ %tmp409, %bb145 ] - %tmp96 = phi float [ 0.000000e+00, %bb ], [ %tmp361, %bb145 ] - %tmp97 = phi float [ 0.000000e+00, %bb ], [ %tmp362, %bb145 ] - %tmp98 = phi float [ 0.000000e+00, %bb ], [ %tmp363, %bb145 ] - %tmp99 = phi float [ 0.000000e+00, %bb ], [ %tmp364, %bb145 ] - %tmp100 = phi float [ 0.000000e+00, %bb ], [ %tmp365, %bb145 ] - %tmp101 = phi float [ 0.000000e+00, %bb ], [ %tmp366, %bb145 ] - %tmp102 = phi float [ 0.000000e+00, %bb ], [ %tmp367, %bb145 ] - %tmp103 = phi float [ 0.000000e+00, %bb ], [ %tmp368, %bb145 ] - %tmp104 = phi float [ 0.000000e+00, %bb ], [ %tmp369, %bb145 ] - %tmp105 = phi float [ 0.000000e+00, %bb ], [ %tmp370, %bb145 ] - %tmp106 = phi float [ 0.000000e+00, %bb ], [ %tmp371, %bb145 ] - %tmp107 = phi float [ 0.000000e+00, %bb ], [ %tmp372, %bb145 ] - %tmp108 = phi float [ 0.000000e+00, %bb ], [ %tmp373, %bb145 ] - %tmp109 = phi float [ 0.000000e+00, %bb ], [ %tmp374, %bb145 ] - %tmp110 = phi float [ 0.000000e+00, %bb ], [ %tmp375, %bb145 ] - %tmp111 = phi float [ 0.000000e+00, %bb ], [ %tmp376, %bb145 ] - %tmp112 = phi float [ 0.000000e+00, %bb ], [ %tmp377, %bb145 ] - %tmp113 = phi float [ 0.000000e+00, %bb ], [ %tmp378, %bb145 ] - %tmp114 = phi float [ 0.000000e+00, %bb ], [ %tmp379, %bb145 ] - %tmp115 = phi float [ 0.000000e+00, %bb ], [ %tmp380, %bb145 ] - %tmp116 = phi float [ 0.000000e+00, %bb ], [ %tmp381, %bb145 ] - %tmp117 = phi float [ 0.000000e+00, %bb ], [ %tmp382, %bb145 ] - %tmp118 = phi float [ 0.000000e+00, %bb ], [ %tmp383, %bb145 ] - %tmp119 = phi float [ 0.000000e+00, %bb ], [ %tmp384, %bb145 ] - %tmp120 = phi float [ 0.000000e+00, %bb ], [ %tmp385, %bb145 ] - %tmp121 = phi float [ 0.000000e+00, %bb ], [ %tmp386, %bb145 ] - %tmp122 = phi float [ 0.000000e+00, %bb ], [ %tmp387, %bb145 ] - %tmp123 = phi float [ 0.000000e+00, %bb ], [ %tmp388, %bb145 ] - %tmp124 = phi float [ 0.000000e+00, %bb ], [ %tmp389, %bb145 ] - %tmp125 = phi float [ 0.000000e+00, %bb ], [ %tmp390, %bb145 ] - %tmp126 = phi float [ 0.000000e+00, %bb ], [ %tmp391, %bb145 ] - %tmp127 = phi float [ 0.000000e+00, %bb ], [ %tmp392, %bb145 ] - %tmp128 = phi float [ 0.000000e+00, %bb ], [ %tmp393, %bb145 ] - %tmp129 = phi float [ 0.000000e+00, %bb ], [ %tmp394, %bb145 ] - %tmp130 = phi float [ 0.000000e+00, %bb ], [ %tmp395, %bb145 ] - %tmp131 = phi float [ 0.000000e+00, %bb ], [ %tmp396, %bb145 ] - %tmp132 = phi float [ 0.000000e+00, %bb ], [ %tmp397, %bb145 ] - %tmp133 = phi float [ 0.000000e+00, %bb ], [ %tmp398, %bb145 ] - %tmp134 = phi float [ 0.000000e+00, %bb ], [ %tmp399, %bb145 ] - %tmp135 = phi float [ 0.000000e+00, %bb ], [ %tmp400, %bb145 ] - %tmp136 = phi float [ 0.000000e+00, %bb ], [ %tmp401, %bb145 ] - %tmp137 = phi float [ 0.000000e+00, %bb ], [ %tmp402, %bb145 ] - %tmp138 = phi float [ 0.000000e+00, %bb ], [ %tmp403, %bb145 ] - %tmp139 = phi float [ 0.000000e+00, %bb ], [ %tmp404, %bb145 ] - %tmp140 = phi float [ 0.000000e+00, %bb ], [ %tmp405, %bb145 ] - %tmp141 = phi float [ 0.000000e+00, %bb ], [ %tmp406, %bb145 ] + %tmp13 = phi float [ 0.0e+00, %bb ], [ %tmp338, %bb145 ] + %tmp14 = phi float [ 0.0e+00, %bb ], [ %tmp337, %bb145 ] + %tmp15 = phi float [ 0.0e+00, %bb ], [ %tmp336, %bb145 ] + %tmp16 = phi float [ 0.0e+00, %bb ], [ %tmp339, %bb145 ] + %tmp17 = phi float [ 0.0e+00, %bb ], [ %tmp335, %bb145 ] + %tmp18 = phi float [ 0.0e+00, %bb ], [ %tmp334, %bb145 ] + %tmp19 = phi float [ 0.0e+00, %bb ], [ %tmp333, %bb145 ] + %tmp20 = phi float [ 0.0e+00, %bb ], [ %tmp340, %bb145 ] + %tmp21 = phi float [ 0.0e+00, %bb ], [ %tmp332, %bb145 ] + %tmp22 = phi float [ 0.0e+00, %bb ], [ %tmp331, %bb145 ] + %tmp23 = phi float [ 0.0e+00, %bb ], [ %tmp330, %bb145 ] + %tmp24 = phi float [ 0.0e+00, %bb ], [ %tmp341, %bb145 ] + %tmp25 = phi float [ 0.0e+00, %bb ], [ %tmp329, %bb145 ] + %tmp26 = phi float [ 0.0e+00, %bb ], [ %tmp328, %bb145 ] + %tmp27 = phi float [ 0.0e+00, %bb ], [ %tmp327, %bb145 ] + %tmp28 = phi float [ 0.0e+00, %bb ], [ %tmp342, %bb145 ] + %tmp29 = phi float [ 0.0e+00, %bb ], [ %tmp326, %bb145 ] + %tmp30 = phi float [ 0.0e+00, %bb ], [ %tmp325, %bb145 ] + %tmp31 = phi float [ 0.0e+00, %bb ], [ %tmp324, %bb145 ] + %tmp32 = phi float [ 0.0e+00, %bb ], [ %tmp343, %bb145 ] + %tmp33 = phi float [ 0.0e+00, %bb ], [ %tmp323, %bb145 ] + %tmp34 = phi float [ 0.0e+00, %bb ], [ %tmp322, %bb145 ] + %tmp35 = phi float [ 0.0e+00, %bb ], [ %tmp321, %bb145 ] + %tmp36 = phi float [ 0.0e+00, %bb ], [ %tmp344, %bb145 ] + %tmp37 = phi float [ 0.0e+00, %bb ], [ %tmp320, %bb145 ] + %tmp38 = phi float [ 0.0e+00, %bb ], [ %tmp319, %bb145 ] + %tmp39 = phi float [ 0.0e+00, %bb ], [ %tmp318, %bb145 ] + %tmp40 = phi float [ 0.0e+00, %bb ], [ %tmp345, %bb145 ] + %tmp41 = phi float [ 0.0e+00, %bb ], [ %tmp317, %bb145 ] + %tmp42 = phi float [ 0.0e+00, %bb ], [ %tmp316, %bb145 ] + %tmp43 = phi float [ 0.0e+00, %bb ], [ %tmp315, %bb145 ] + %tmp44 = phi float [ 0.0e+00, %bb ], [ %tmp346, %bb145 ] + %tmp45 = phi float [ 0.0e+00, %bb ], [ %tmp314, %bb145 ] + %tmp46 = phi float [ 0.0e+00, %bb ], [ %tmp313, %bb145 ] + %tmp47 = phi float [ 0.0e+00, %bb ], [ %tmp312, %bb145 ] + %tmp48 = phi float [ 0.0e+00, %bb ], [ %tmp347, %bb145 ] + %tmp49 = phi float [ 0.0e+00, %bb ], [ %tmp311, %bb145 ] + %tmp50 = phi float [ 0.0e+00, %bb ], [ %tmp310, %bb145 ] + %tmp51 = phi float [ 0.0e+00, %bb ], [ %tmp309, %bb145 ] + %tmp52 = phi float [ 0.0e+00, %bb ], [ %tmp348, %bb145 ] + %tmp53 = phi float [ 0.0e+00, %bb ], [ %tmp308, %bb145 ] + %tmp54 = phi float [ 0.0e+00, %bb ], [ %tmp307, %bb145 ] + %tmp55 = phi float [ 0.0e+00, %bb ], [ %tmp306, %bb145 ] + %tmp56 = phi float [ 0.0e+00, %bb ], [ %tmp349, %bb145 ] + %tmp57 = phi float [ 0.0e+00, %bb ], [ %tmp305, %bb145 ] + %tmp58 = phi float [ 0.0e+00, %bb ], [ %tmp304, %bb145 ] + %tmp59 = phi float [ 0.0e+00, %bb ], [ %tmp303, %bb145 ] + %tmp60 = phi float [ 0.0e+00, %bb ], [ %tmp350, %bb145 ] + %tmp61 = phi float [ 0.0e+00, %bb ], [ %tmp302, %bb145 ] + %tmp62 = phi float [ 0.0e+00, %bb ], [ %tmp301, %bb145 ] + %tmp63 = phi float [ 0.0e+00, %bb ], [ %tmp300, %bb145 ] + %tmp64 = phi float [ 0.0e+00, %bb ], [ %tmp351, %bb145 ] + %tmp65 = phi float [ 0.0e+00, %bb ], [ %tmp299, %bb145 ] + %tmp66 = phi float [ 0.0e+00, %bb ], [ %tmp298, %bb145 ] + %tmp67 = phi float [ 0.0e+00, %bb ], [ %tmp297, %bb145 ] + %tmp68 = phi float [ 0.0e+00, %bb ], [ %tmp352, %bb145 ] + %tmp69 = phi float [ 0.0e+00, %bb ], [ %tmp296, %bb145 ] + %tmp70 = phi float [ 0.0e+00, %bb ], [ %tmp295, %bb145 ] + %tmp71 = phi float [ 0.0e+00, %bb ], [ %tmp294, %bb145 ] + %tmp72 = phi float [ 0.0e+00, %bb ], [ %tmp353, %bb145 ] + %tmp73 = phi float [ 0.0e+00, %bb ], [ %tmp293, %bb145 ] + %tmp74 = phi float [ 0.0e+00, %bb ], [ %tmp292, %bb145 ] + %tmp75 = phi float [ 0.0e+00, %bb ], [ %tmp291, %bb145 ] + %tmp76 = phi float [ 0.0e+00, %bb ], [ %tmp354, %bb145 ] + %tmp77 = phi float [ 0.0e+00, %bb ], [ %tmp290, %bb145 ] + %tmp78 = phi float [ 0.0e+00, %bb ], [ %tmp289, %bb145 ] + %tmp79 = phi float [ 0.0e+00, %bb ], [ %tmp288, %bb145 ] + %tmp80 = phi float [ 0.0e+00, %bb ], [ %tmp355, %bb145 ] + %tmp81 = phi float [ 0.0e+00, %bb ], [ %tmp287, %bb145 ] + %tmp82 = phi float [ 0.0e+00, %bb ], [ %tmp286, %bb145 ] + %tmp83 = phi float [ 0.0e+00, %bb ], [ %tmp285, %bb145 ] + %tmp84 = phi float [ 0.0e+00, %bb ], [ %tmp356, %bb145 ] + %tmp85 = phi float [ 0.0e+00, %bb ], [ %tmp284, %bb145 ] + %tmp86 = phi float [ 0.0e+00, %bb ], [ %tmp283, %bb145 ] + %tmp87 = phi float [ 0.0e+00, %bb ], [ %tmp282, %bb145 ] + %tmp88 = phi float [ 0.0e+00, %bb ], [ %tmp357, %bb145 ] + %tmp89 = phi float [ 0.0e+00, %bb ], [ %tmp281, %bb145 ] + %tmp90 = phi float [ 0.0e+00, %bb ], [ %tmp280, %bb145 ] + %tmp91 = phi float [ 0.0e+00, %bb ], [ %tmp279, %bb145 ] + %tmp92 = phi float [ 0.0e+00, %bb ], [ %tmp358, %bb145 ] + %tmp93 = phi float [ 0.0e+00, %bb ], [ %tmp359, %bb145 ] + %tmp94 = phi float [ 0.0e+00, %bb ], [ %tmp360, %bb145 ] + %tmp95 = phi float [ 0.0e+00, %bb ], [ %tmp409, %bb145 ] + %tmp96 = phi float [ 0.0e+00, %bb ], [ %tmp361, %bb145 ] + %tmp97 = phi float [ 0.0e+00, %bb ], [ %tmp362, %bb145 ] + %tmp98 = phi float [ 0.0e+00, %bb ], [ %tmp363, %bb145 ] + %tmp99 = phi float [ 0.0e+00, %bb ], [ %tmp364, %bb145 ] + %tmp100 = phi float [ 0.0e+00, %bb ], [ %tmp365, %bb145 ] + %tmp101 = phi float [ 0.0e+00, %bb ], [ %tmp366, %bb145 ] + %tmp102 = phi float [ 0.0e+00, %bb ], [ %tmp367, %bb145 ] + %tmp103 = phi float [ 0.0e+00, %bb ], [ %tmp368, %bb145 ] + %tmp104 = phi float [ 0.0e+00, %bb ], [ %tmp369, %bb145 ] + %tmp105 = phi float [ 0.0e+00, %bb ], [ %tmp370, %bb145 ] + %tmp106 = phi float [ 0.0e+00, %bb ], [ %tmp371, %bb145 ] + %tmp107 = phi float [ 0.0e+00, %bb ], [ %tmp372, %bb145 ] + %tmp108 = phi float [ 0.0e+00, %bb ], [ %tmp373, %bb145 ] + %tmp109 = phi float [ 0.0e+00, %bb ], [ %tmp374, %bb145 ] + %tmp110 = phi float [ 0.0e+00, %bb ], [ %tmp375, %bb145 ] + %tmp111 = phi float [ 0.0e+00, %bb ], [ %tmp376, %bb145 ] + %tmp112 = phi float [ 0.0e+00, %bb ], [ %tmp377, %bb145 ] + %tmp113 = phi float [ 0.0e+00, %bb ], [ %tmp378, %bb145 ] + %tmp114 = phi float [ 0.0e+00, %bb ], [ %tmp379, %bb145 ] + %tmp115 = phi float [ 0.0e+00, %bb ], [ %tmp380, %bb145 ] + %tmp116 = phi float [ 0.0e+00, %bb ], [ %tmp381, %bb145 ] + %tmp117 = phi float [ 0.0e+00, %bb ], [ %tmp382, %bb145 ] + %tmp118 = phi float [ 0.0e+00, %bb ], [ %tmp383, %bb145 ] + %tmp119 = phi float [ 0.0e+00, %bb ], [ %tmp384, %bb145 ] + %tmp120 = phi float [ 0.0e+00, %bb ], [ %tmp385, %bb145 ] + %tmp121 = phi float [ 0.0e+00, %bb ], [ %tmp386, %bb145 ] + %tmp122 = phi float [ 0.0e+00, %bb ], [ %tmp387, %bb145 ] + %tmp123 = phi float [ 0.0e+00, %bb ], [ %tmp388, %bb145 ] + %tmp124 = phi float [ 0.0e+00, %bb ], [ %tmp389, %bb145 ] + %tmp125 = phi float [ 0.0e+00, %bb ], [ %tmp390, %bb145 ] + %tmp126 = phi float [ 0.0e+00, %bb ], [ %tmp391, %bb145 ] + %tmp127 = phi float [ 0.0e+00, %bb ], [ %tmp392, %bb145 ] + %tmp128 = phi float [ 0.0e+00, %bb ], [ %tmp393, %bb145 ] + %tmp129 = phi float [ 0.0e+00, %bb ], [ %tmp394, %bb145 ] + %tmp130 = phi float [ 0.0e+00, %bb ], [ %tmp395, %bb145 ] + %tmp131 = phi float [ 0.0e+00, %bb ], [ %tmp396, %bb145 ] + %tmp132 = phi float [ 0.0e+00, %bb ], [ %tmp397, %bb145 ] + %tmp133 = phi float [ 0.0e+00, %bb ], [ %tmp398, %bb145 ] + %tmp134 = phi float [ 0.0e+00, %bb ], [ %tmp399, %bb145 ] + %tmp135 = phi float [ 0.0e+00, %bb ], [ %tmp400, %bb145 ] + %tmp136 = phi float [ 0.0e+00, %bb ], [ %tmp401, %bb145 ] + %tmp137 = phi float [ 0.0e+00, %bb ], [ %tmp402, %bb145 ] + %tmp138 = phi float [ 0.0e+00, %bb ], [ %tmp403, %bb145 ] + %tmp139 = phi float [ 0.0e+00, %bb ], [ %tmp404, %bb145 ] + %tmp140 = phi float [ 0.0e+00, %bb ], [ %tmp405, %bb145 ] + %tmp141 = phi float [ 0.0e+00, %bb ], [ %tmp406, %bb145 ] %tmp142 = bitcast float %tmp95 to i32 %tmp143 = icmp sgt i32 %tmp142, 125 br i1 %tmp143, label %bb144, label %bb145 Index: test/CodeGen/AMDGPU/vgpr-spill-emergency-stack-slot.ll =================================================================== --- test/CodeGen/AMDGPU/vgpr-spill-emergency-stack-slot.ll +++ test/CodeGen/AMDGPU/vgpr-spill-emergency-stack-slot.ll @@ -42,135 +42,135 @@ br label %bb24 bb24: ; preds = %bb157, %bb - %tmp25 = phi float [ 0.000000e+00, %bb ], [ %tmp350, %bb157 ] - %tmp26 = phi float [ 0.000000e+00, %bb ], [ %tmp349, %bb157 ] - %tmp27 = phi float [ 0.000000e+00, %bb ], [ %tmp348, %bb157 ] - %tmp28 = phi float [ 0.000000e+00, %bb ], [ %tmp351, %bb157 ] - %tmp29 = phi float [ 0.000000e+00, %bb ], [ %tmp347, %bb157 ] - %tmp30 = phi float [ 0.000000e+00, %bb ], [ %tmp346, %bb157 ] - %tmp31 = phi float [ 0.000000e+00, %bb ], [ %tmp345, %bb157 ] - %tmp32 = phi float [ 0.000000e+00, %bb ], [ %tmp352, %bb157 ] - %tmp33 = phi float [ 0.000000e+00, %bb ], [ %tmp344, %bb157 ] - %tmp34 = phi float [ 0.000000e+00, %bb ], [ %tmp343, %bb157 ] - %tmp35 = phi float [ 0.000000e+00, %bb ], [ %tmp342, %bb157 ] - %tmp36 = phi float [ 0.000000e+00, %bb ], [ %tmp353, %bb157 ] - %tmp37 = phi float [ 0.000000e+00, %bb ], [ %tmp341, %bb157 ] - %tmp38 = phi float [ 0.000000e+00, %bb ], [ %tmp340, %bb157 ] - %tmp39 = phi float [ 0.000000e+00, %bb ], [ %tmp339, %bb157 ] - %tmp40 = phi float [ 0.000000e+00, %bb ], [ %tmp354, %bb157 ] - %tmp41 = phi float [ 0.000000e+00, %bb ], [ %tmp338, %bb157 ] - %tmp42 = phi float [ 0.000000e+00, %bb ], [ %tmp337, %bb157 ] - %tmp43 = phi float [ 0.000000e+00, %bb ], [ %tmp336, %bb157 ] - %tmp44 = phi float [ 0.000000e+00, %bb ], [ %tmp355, %bb157 ] - %tmp45 = phi float [ 0.000000e+00, %bb ], [ %tmp335, %bb157 ] - %tmp46 = phi float [ 0.000000e+00, %bb ], [ %tmp334, %bb157 ] - %tmp47 = phi float [ 0.000000e+00, %bb ], [ %tmp333, %bb157 ] - %tmp48 = phi float [ 0.000000e+00, %bb ], [ %tmp356, %bb157 ] - %tmp49 = phi float [ 0.000000e+00, %bb ], [ %tmp332, %bb157 ] - %tmp50 = phi float [ 0.000000e+00, %bb ], [ %tmp331, %bb157 ] - %tmp51 = phi float [ 0.000000e+00, %bb ], [ %tmp330, %bb157 ] - %tmp52 = phi float [ 0.000000e+00, %bb ], [ %tmp357, %bb157 ] - %tmp53 = phi float [ 0.000000e+00, %bb ], [ %tmp329, %bb157 ] - %tmp54 = phi float [ 0.000000e+00, %bb ], [ %tmp328, %bb157 ] - %tmp55 = phi float [ 0.000000e+00, %bb ], [ %tmp327, %bb157 ] - %tmp56 = phi float [ 0.000000e+00, %bb ], [ %tmp358, %bb157 ] - %tmp57 = phi float [ 0.000000e+00, %bb ], [ %tmp326, %bb157 ] - %tmp58 = phi float [ 0.000000e+00, %bb ], [ %tmp325, %bb157 ] - %tmp59 = phi float [ 0.000000e+00, %bb ], [ %tmp324, %bb157 ] - %tmp60 = phi float [ 0.000000e+00, %bb ], [ %tmp359, %bb157 ] - %tmp61 = phi float [ 0.000000e+00, %bb ], [ %tmp323, %bb157 ] - %tmp62 = phi float [ 0.000000e+00, %bb ], [ %tmp322, %bb157 ] - %tmp63 = phi float [ 0.000000e+00, %bb ], [ %tmp321, %bb157 ] - %tmp64 = phi float [ 0.000000e+00, %bb ], [ %tmp360, %bb157 ] - %tmp65 = phi float [ 0.000000e+00, %bb ], [ %tmp320, %bb157 ] - %tmp66 = phi float [ 0.000000e+00, %bb ], [ %tmp319, %bb157 ] - %tmp67 = phi float [ 0.000000e+00, %bb ], [ %tmp318, %bb157 ] - %tmp68 = phi float [ 0.000000e+00, %bb ], [ %tmp361, %bb157 ] - %tmp69 = phi float [ 0.000000e+00, %bb ], [ %tmp317, %bb157 ] - %tmp70 = phi float [ 0.000000e+00, %bb ], [ %tmp316, %bb157 ] - %tmp71 = phi float [ 0.000000e+00, %bb ], [ %tmp315, %bb157 ] - %tmp72 = phi float [ 0.000000e+00, %bb ], [ %tmp362, %bb157 ] - %tmp73 = phi float [ 0.000000e+00, %bb ], [ %tmp314, %bb157 ] - %tmp74 = phi float [ 0.000000e+00, %bb ], [ %tmp313, %bb157 ] - %tmp75 = phi float [ 0.000000e+00, %bb ], [ %tmp312, %bb157 ] - %tmp76 = phi float [ 0.000000e+00, %bb ], [ %tmp363, %bb157 ] - %tmp77 = phi float [ 0.000000e+00, %bb ], [ %tmp311, %bb157 ] - %tmp78 = phi float [ 0.000000e+00, %bb ], [ %tmp310, %bb157 ] - %tmp79 = phi float [ 0.000000e+00, %bb ], [ %tmp309, %bb157 ] - %tmp80 = phi float [ 0.000000e+00, %bb ], [ %tmp364, %bb157 ] - %tmp81 = phi float [ 0.000000e+00, %bb ], [ %tmp308, %bb157 ] - %tmp82 = phi float [ 0.000000e+00, %bb ], [ %tmp307, %bb157 ] - %tmp83 = phi float [ 0.000000e+00, %bb ], [ %tmp306, %bb157 ] - %tmp84 = phi float [ 0.000000e+00, %bb ], [ %tmp365, %bb157 ] - %tmp85 = phi float [ 0.000000e+00, %bb ], [ %tmp305, %bb157 ] - %tmp86 = phi float [ 0.000000e+00, %bb ], [ %tmp304, %bb157 ] - %tmp87 = phi float [ 0.000000e+00, %bb ], [ %tmp303, %bb157 ] - %tmp88 = phi float [ 0.000000e+00, %bb ], [ %tmp366, %bb157 ] - %tmp89 = phi float [ 0.000000e+00, %bb ], [ %tmp302, %bb157 ] - %tmp90 = phi float [ 0.000000e+00, %bb ], [ %tmp301, %bb157 ] - %tmp91 = phi float [ 0.000000e+00, %bb ], [ %tmp300, %bb157 ] - %tmp92 = phi float [ 0.000000e+00, %bb ], [ %tmp367, %bb157 ] - %tmp93 = phi float [ 0.000000e+00, %bb ], [ %tmp299, %bb157 ] - %tmp94 = phi float [ 0.000000e+00, %bb ], [ %tmp298, %bb157 ] - %tmp95 = phi float [ 0.000000e+00, %bb ], [ %tmp297, %bb157 ] - %tmp96 = phi float [ 0.000000e+00, %bb ], [ %tmp368, %bb157 ] - %tmp97 = phi float [ 0.000000e+00, %bb ], [ %tmp296, %bb157 ] - %tmp98 = phi float [ 0.000000e+00, %bb ], [ %tmp295, %bb157 ] - %tmp99 = phi float [ 0.000000e+00, %bb ], [ %tmp294, %bb157 ] - %tmp100 = phi float [ 0.000000e+00, %bb ], [ %tmp369, %bb157 ] - %tmp101 = phi float [ 0.000000e+00, %bb ], [ %tmp293, %bb157 ] - %tmp102 = phi float [ 0.000000e+00, %bb ], [ %tmp292, %bb157 ] - %tmp103 = phi float [ 0.000000e+00, %bb ], [ %tmp291, %bb157 ] - %tmp104 = phi float [ 0.000000e+00, %bb ], [ %tmp370, %bb157 ] - %tmp105 = phi float [ 0.000000e+00, %bb ], [ %tmp371, %bb157 ] - %tmp106 = phi float [ 0.000000e+00, %bb ], [ %tmp372, %bb157 ] - %tmp107 = phi float [ 0.000000e+00, %bb ], [ %tmp421, %bb157 ] - %tmp108 = phi float [ 0.000000e+00, %bb ], [ %tmp373, %bb157 ] - %tmp109 = phi float [ 0.000000e+00, %bb ], [ %tmp374, %bb157 ] - %tmp110 = phi float [ 0.000000e+00, %bb ], [ %tmp375, %bb157 ] - %tmp111 = phi float [ 0.000000e+00, %bb ], [ %tmp376, %bb157 ] - %tmp112 = phi float [ 0.000000e+00, %bb ], [ %tmp377, %bb157 ] - %tmp113 = phi float [ 0.000000e+00, %bb ], [ %tmp378, %bb157 ] - %tmp114 = phi float [ 0.000000e+00, %bb ], [ %tmp379, %bb157 ] - %tmp115 = phi float [ 0.000000e+00, %bb ], [ %tmp380, %bb157 ] - %tmp116 = phi float [ 0.000000e+00, %bb ], [ %tmp381, %bb157 ] - %tmp117 = phi float [ 0.000000e+00, %bb ], [ %tmp382, %bb157 ] - %tmp118 = phi float [ 0.000000e+00, %bb ], [ %tmp383, %bb157 ] - %tmp119 = phi float [ 0.000000e+00, %bb ], [ %tmp384, %bb157 ] - %tmp120 = phi float [ 0.000000e+00, %bb ], [ %tmp385, %bb157 ] - %tmp121 = phi float [ 0.000000e+00, %bb ], [ %tmp386, %bb157 ] - %tmp122 = phi float [ 0.000000e+00, %bb ], [ %tmp387, %bb157 ] - %tmp123 = phi float [ 0.000000e+00, %bb ], [ %tmp388, %bb157 ] - %tmp124 = phi float [ 0.000000e+00, %bb ], [ %tmp389, %bb157 ] - %tmp125 = phi float [ 0.000000e+00, %bb ], [ %tmp390, %bb157 ] - %tmp126 = phi float [ 0.000000e+00, %bb ], [ %tmp391, %bb157 ] - %tmp127 = phi float [ 0.000000e+00, %bb ], [ %tmp392, %bb157 ] - %tmp128 = phi float [ 0.000000e+00, %bb ], [ %tmp393, %bb157 ] - %tmp129 = phi float [ 0.000000e+00, %bb ], [ %tmp394, %bb157 ] - %tmp130 = phi float [ 0.000000e+00, %bb ], [ %tmp395, %bb157 ] - %tmp131 = phi float [ 0.000000e+00, %bb ], [ %tmp396, %bb157 ] - %tmp132 = phi float [ 0.000000e+00, %bb ], [ %tmp397, %bb157 ] - %tmp133 = phi float [ 0.000000e+00, %bb ], [ %tmp398, %bb157 ] - %tmp134 = phi float [ 0.000000e+00, %bb ], [ %tmp399, %bb157 ] - %tmp135 = phi float [ 0.000000e+00, %bb ], [ %tmp400, %bb157 ] - %tmp136 = phi float [ 0.000000e+00, %bb ], [ %tmp401, %bb157 ] - %tmp137 = phi float [ 0.000000e+00, %bb ], [ %tmp402, %bb157 ] - %tmp138 = phi float [ 0.000000e+00, %bb ], [ %tmp403, %bb157 ] - %tmp139 = phi float [ 0.000000e+00, %bb ], [ %tmp404, %bb157 ] - %tmp140 = phi float [ 0.000000e+00, %bb ], [ %tmp405, %bb157 ] - %tmp141 = phi float [ 0.000000e+00, %bb ], [ %tmp406, %bb157 ] - %tmp142 = phi float [ 0.000000e+00, %bb ], [ %tmp407, %bb157 ] - %tmp143 = phi float [ 0.000000e+00, %bb ], [ %tmp408, %bb157 ] - %tmp144 = phi float [ 0.000000e+00, %bb ], [ %tmp409, %bb157 ] - %tmp145 = phi float [ 0.000000e+00, %bb ], [ %tmp410, %bb157 ] - %tmp146 = phi float [ 0.000000e+00, %bb ], [ %tmp411, %bb157 ] - %tmp147 = phi float [ 0.000000e+00, %bb ], [ %tmp412, %bb157 ] - %tmp148 = phi float [ 0.000000e+00, %bb ], [ %tmp413, %bb157 ] - %tmp149 = phi float [ 0.000000e+00, %bb ], [ %tmp414, %bb157 ] - %tmp150 = phi float [ 0.000000e+00, %bb ], [ %tmp415, %bb157 ] - %tmp151 = phi float [ 0.000000e+00, %bb ], [ %tmp416, %bb157 ] - %tmp152 = phi float [ 0.000000e+00, %bb ], [ %tmp417, %bb157 ] - %tmp153 = phi float [ 0.000000e+00, %bb ], [ %tmp418, %bb157 ] + %tmp25 = phi float [ 0.0e+00, %bb ], [ %tmp350, %bb157 ] + %tmp26 = phi float [ 0.0e+00, %bb ], [ %tmp349, %bb157 ] + %tmp27 = phi float [ 0.0e+00, %bb ], [ %tmp348, %bb157 ] + %tmp28 = phi float [ 0.0e+00, %bb ], [ %tmp351, %bb157 ] + %tmp29 = phi float [ 0.0e+00, %bb ], [ %tmp347, %bb157 ] + %tmp30 = phi float [ 0.0e+00, %bb ], [ %tmp346, %bb157 ] + %tmp31 = phi float [ 0.0e+00, %bb ], [ %tmp345, %bb157 ] + %tmp32 = phi float [ 0.0e+00, %bb ], [ %tmp352, %bb157 ] + %tmp33 = phi float [ 0.0e+00, %bb ], [ %tmp344, %bb157 ] + %tmp34 = phi float [ 0.0e+00, %bb ], [ %tmp343, %bb157 ] + %tmp35 = phi float [ 0.0e+00, %bb ], [ %tmp342, %bb157 ] + %tmp36 = phi float [ 0.0e+00, %bb ], [ %tmp353, %bb157 ] + %tmp37 = phi float [ 0.0e+00, %bb ], [ %tmp341, %bb157 ] + %tmp38 = phi float [ 0.0e+00, %bb ], [ %tmp340, %bb157 ] + %tmp39 = phi float [ 0.0e+00, %bb ], [ %tmp339, %bb157 ] + %tmp40 = phi float [ 0.0e+00, %bb ], [ %tmp354, %bb157 ] + %tmp41 = phi float [ 0.0e+00, %bb ], [ %tmp338, %bb157 ] + %tmp42 = phi float [ 0.0e+00, %bb ], [ %tmp337, %bb157 ] + %tmp43 = phi float [ 0.0e+00, %bb ], [ %tmp336, %bb157 ] + %tmp44 = phi float [ 0.0e+00, %bb ], [ %tmp355, %bb157 ] + %tmp45 = phi float [ 0.0e+00, %bb ], [ %tmp335, %bb157 ] + %tmp46 = phi float [ 0.0e+00, %bb ], [ %tmp334, %bb157 ] + %tmp47 = phi float [ 0.0e+00, %bb ], [ %tmp333, %bb157 ] + %tmp48 = phi float [ 0.0e+00, %bb ], [ %tmp356, %bb157 ] + %tmp49 = phi float [ 0.0e+00, %bb ], [ %tmp332, %bb157 ] + %tmp50 = phi float [ 0.0e+00, %bb ], [ %tmp331, %bb157 ] + %tmp51 = phi float [ 0.0e+00, %bb ], [ %tmp330, %bb157 ] + %tmp52 = phi float [ 0.0e+00, %bb ], [ %tmp357, %bb157 ] + %tmp53 = phi float [ 0.0e+00, %bb ], [ %tmp329, %bb157 ] + %tmp54 = phi float [ 0.0e+00, %bb ], [ %tmp328, %bb157 ] + %tmp55 = phi float [ 0.0e+00, %bb ], [ %tmp327, %bb157 ] + %tmp56 = phi float [ 0.0e+00, %bb ], [ %tmp358, %bb157 ] + %tmp57 = phi float [ 0.0e+00, %bb ], [ %tmp326, %bb157 ] + %tmp58 = phi float [ 0.0e+00, %bb ], [ %tmp325, %bb157 ] + %tmp59 = phi float [ 0.0e+00, %bb ], [ %tmp324, %bb157 ] + %tmp60 = phi float [ 0.0e+00, %bb ], [ %tmp359, %bb157 ] + %tmp61 = phi float [ 0.0e+00, %bb ], [ %tmp323, %bb157 ] + %tmp62 = phi float [ 0.0e+00, %bb ], [ %tmp322, %bb157 ] + %tmp63 = phi float [ 0.0e+00, %bb ], [ %tmp321, %bb157 ] + %tmp64 = phi float [ 0.0e+00, %bb ], [ %tmp360, %bb157 ] + %tmp65 = phi float [ 0.0e+00, %bb ], [ %tmp320, %bb157 ] + %tmp66 = phi float [ 0.0e+00, %bb ], [ %tmp319, %bb157 ] + %tmp67 = phi float [ 0.0e+00, %bb ], [ %tmp318, %bb157 ] + %tmp68 = phi float [ 0.0e+00, %bb ], [ %tmp361, %bb157 ] + %tmp69 = phi float [ 0.0e+00, %bb ], [ %tmp317, %bb157 ] + %tmp70 = phi float [ 0.0e+00, %bb ], [ %tmp316, %bb157 ] + %tmp71 = phi float [ 0.0e+00, %bb ], [ %tmp315, %bb157 ] + %tmp72 = phi float [ 0.0e+00, %bb ], [ %tmp362, %bb157 ] + %tmp73 = phi float [ 0.0e+00, %bb ], [ %tmp314, %bb157 ] + %tmp74 = phi float [ 0.0e+00, %bb ], [ %tmp313, %bb157 ] + %tmp75 = phi float [ 0.0e+00, %bb ], [ %tmp312, %bb157 ] + %tmp76 = phi float [ 0.0e+00, %bb ], [ %tmp363, %bb157 ] + %tmp77 = phi float [ 0.0e+00, %bb ], [ %tmp311, %bb157 ] + %tmp78 = phi float [ 0.0e+00, %bb ], [ %tmp310, %bb157 ] + %tmp79 = phi float [ 0.0e+00, %bb ], [ %tmp309, %bb157 ] + %tmp80 = phi float [ 0.0e+00, %bb ], [ %tmp364, %bb157 ] + %tmp81 = phi float [ 0.0e+00, %bb ], [ %tmp308, %bb157 ] + %tmp82 = phi float [ 0.0e+00, %bb ], [ %tmp307, %bb157 ] + %tmp83 = phi float [ 0.0e+00, %bb ], [ %tmp306, %bb157 ] + %tmp84 = phi float [ 0.0e+00, %bb ], [ %tmp365, %bb157 ] + %tmp85 = phi float [ 0.0e+00, %bb ], [ %tmp305, %bb157 ] + %tmp86 = phi float [ 0.0e+00, %bb ], [ %tmp304, %bb157 ] + %tmp87 = phi float [ 0.0e+00, %bb ], [ %tmp303, %bb157 ] + %tmp88 = phi float [ 0.0e+00, %bb ], [ %tmp366, %bb157 ] + %tmp89 = phi float [ 0.0e+00, %bb ], [ %tmp302, %bb157 ] + %tmp90 = phi float [ 0.0e+00, %bb ], [ %tmp301, %bb157 ] + %tmp91 = phi float [ 0.0e+00, %bb ], [ %tmp300, %bb157 ] + %tmp92 = phi float [ 0.0e+00, %bb ], [ %tmp367, %bb157 ] + %tmp93 = phi float [ 0.0e+00, %bb ], [ %tmp299, %bb157 ] + %tmp94 = phi float [ 0.0e+00, %bb ], [ %tmp298, %bb157 ] + %tmp95 = phi float [ 0.0e+00, %bb ], [ %tmp297, %bb157 ] + %tmp96 = phi float [ 0.0e+00, %bb ], [ %tmp368, %bb157 ] + %tmp97 = phi float [ 0.0e+00, %bb ], [ %tmp296, %bb157 ] + %tmp98 = phi float [ 0.0e+00, %bb ], [ %tmp295, %bb157 ] + %tmp99 = phi float [ 0.0e+00, %bb ], [ %tmp294, %bb157 ] + %tmp100 = phi float [ 0.0e+00, %bb ], [ %tmp369, %bb157 ] + %tmp101 = phi float [ 0.0e+00, %bb ], [ %tmp293, %bb157 ] + %tmp102 = phi float [ 0.0e+00, %bb ], [ %tmp292, %bb157 ] + %tmp103 = phi float [ 0.0e+00, %bb ], [ %tmp291, %bb157 ] + %tmp104 = phi float [ 0.0e+00, %bb ], [ %tmp370, %bb157 ] + %tmp105 = phi float [ 0.0e+00, %bb ], [ %tmp371, %bb157 ] + %tmp106 = phi float [ 0.0e+00, %bb ], [ %tmp372, %bb157 ] + %tmp107 = phi float [ 0.0e+00, %bb ], [ %tmp421, %bb157 ] + %tmp108 = phi float [ 0.0e+00, %bb ], [ %tmp373, %bb157 ] + %tmp109 = phi float [ 0.0e+00, %bb ], [ %tmp374, %bb157 ] + %tmp110 = phi float [ 0.0e+00, %bb ], [ %tmp375, %bb157 ] + %tmp111 = phi float [ 0.0e+00, %bb ], [ %tmp376, %bb157 ] + %tmp112 = phi float [ 0.0e+00, %bb ], [ %tmp377, %bb157 ] + %tmp113 = phi float [ 0.0e+00, %bb ], [ %tmp378, %bb157 ] + %tmp114 = phi float [ 0.0e+00, %bb ], [ %tmp379, %bb157 ] + %tmp115 = phi float [ 0.0e+00, %bb ], [ %tmp380, %bb157 ] + %tmp116 = phi float [ 0.0e+00, %bb ], [ %tmp381, %bb157 ] + %tmp117 = phi float [ 0.0e+00, %bb ], [ %tmp382, %bb157 ] + %tmp118 = phi float [ 0.0e+00, %bb ], [ %tmp383, %bb157 ] + %tmp119 = phi float [ 0.0e+00, %bb ], [ %tmp384, %bb157 ] + %tmp120 = phi float [ 0.0e+00, %bb ], [ %tmp385, %bb157 ] + %tmp121 = phi float [ 0.0e+00, %bb ], [ %tmp386, %bb157 ] + %tmp122 = phi float [ 0.0e+00, %bb ], [ %tmp387, %bb157 ] + %tmp123 = phi float [ 0.0e+00, %bb ], [ %tmp388, %bb157 ] + %tmp124 = phi float [ 0.0e+00, %bb ], [ %tmp389, %bb157 ] + %tmp125 = phi float [ 0.0e+00, %bb ], [ %tmp390, %bb157 ] + %tmp126 = phi float [ 0.0e+00, %bb ], [ %tmp391, %bb157 ] + %tmp127 = phi float [ 0.0e+00, %bb ], [ %tmp392, %bb157 ] + %tmp128 = phi float [ 0.0e+00, %bb ], [ %tmp393, %bb157 ] + %tmp129 = phi float [ 0.0e+00, %bb ], [ %tmp394, %bb157 ] + %tmp130 = phi float [ 0.0e+00, %bb ], [ %tmp395, %bb157 ] + %tmp131 = phi float [ 0.0e+00, %bb ], [ %tmp396, %bb157 ] + %tmp132 = phi float [ 0.0e+00, %bb ], [ %tmp397, %bb157 ] + %tmp133 = phi float [ 0.0e+00, %bb ], [ %tmp398, %bb157 ] + %tmp134 = phi float [ 0.0e+00, %bb ], [ %tmp399, %bb157 ] + %tmp135 = phi float [ 0.0e+00, %bb ], [ %tmp400, %bb157 ] + %tmp136 = phi float [ 0.0e+00, %bb ], [ %tmp401, %bb157 ] + %tmp137 = phi float [ 0.0e+00, %bb ], [ %tmp402, %bb157 ] + %tmp138 = phi float [ 0.0e+00, %bb ], [ %tmp403, %bb157 ] + %tmp139 = phi float [ 0.0e+00, %bb ], [ %tmp404, %bb157 ] + %tmp140 = phi float [ 0.0e+00, %bb ], [ %tmp405, %bb157 ] + %tmp141 = phi float [ 0.0e+00, %bb ], [ %tmp406, %bb157 ] + %tmp142 = phi float [ 0.0e+00, %bb ], [ %tmp407, %bb157 ] + %tmp143 = phi float [ 0.0e+00, %bb ], [ %tmp408, %bb157 ] + %tmp144 = phi float [ 0.0e+00, %bb ], [ %tmp409, %bb157 ] + %tmp145 = phi float [ 0.0e+00, %bb ], [ %tmp410, %bb157 ] + %tmp146 = phi float [ 0.0e+00, %bb ], [ %tmp411, %bb157 ] + %tmp147 = phi float [ 0.0e+00, %bb ], [ %tmp412, %bb157 ] + %tmp148 = phi float [ 0.0e+00, %bb ], [ %tmp413, %bb157 ] + %tmp149 = phi float [ 0.0e+00, %bb ], [ %tmp414, %bb157 ] + %tmp150 = phi float [ 0.0e+00, %bb ], [ %tmp415, %bb157 ] + %tmp151 = phi float [ 0.0e+00, %bb ], [ %tmp416, %bb157 ] + %tmp152 = phi float [ 0.0e+00, %bb ], [ %tmp417, %bb157 ] + %tmp153 = phi float [ 0.0e+00, %bb ], [ %tmp418, %bb157 ] %tmp154 = bitcast float %tmp107 to i32 %tmp155 = icmp sgt i32 %tmp154, 125 br i1 %tmp155, label %bb156, label %bb157 Index: test/CodeGen/AMDGPU/vop-shrink.ll =================================================================== --- test/CodeGen/AMDGPU/vop-shrink.ll +++ test/CodeGen/AMDGPU/vop-shrink.ll @@ -39,7 +39,7 @@ entry: %tmp = call i32 @llvm.r600.read.tidig.x() %tmp1 = uitofp i32 %tmp to float - %tmp2 = fadd float %tmp1, 1.024000e+03 + %tmp2 = fadd float %tmp1, 1.024e+03 store float %tmp2, float addrspace(1)* %out ret void } Index: test/CodeGen/AMDGPU/xor.ll =================================================================== --- test/CodeGen/AMDGPU/xor.ll +++ test/CodeGen/AMDGPU/xor.ll @@ -49,8 +49,8 @@ define void @xor_i1(float addrspace(1)* %out, float addrspace(1)* %in0, float addrspace(1)* %in1) { %a = load float, float addrspace(1) * %in0 %b = load float, float addrspace(1) * %in1 - %acmp = fcmp oge float %a, 0.000000e+00 - %bcmp = fcmp oge float %b, 1.000000e+00 + %acmp = fcmp oge float %a, 0.0e+00 + %bcmp = fcmp oge float %b, 1.0e+00 %xor = xor i1 %acmp, %bcmp %result = select i1 %xor, float %a, float %b store float %result, float addrspace(1)* %out Index: test/CodeGen/ARM/2007-01-19-InfiniteLoop.ll =================================================================== --- test/CodeGen/ARM/2007-01-19-InfiniteLoop.ll +++ test/CodeGen/ARM/2007-01-19-InfiniteLoop.ll @@ -44,8 +44,8 @@ %tmp612 = load i32, i32* null ; [#uses=1] %tmp629 = load i32, i32* null ; [#uses=1] %tmp629a = sitofp i32 %tmp629 to double ; [#uses=1] - %tmp631 = fmul double %tmp629a, 0.000000e+00 ; [#uses=1] - %tmp632 = fadd double 0.000000e+00, %tmp631 ; [#uses=1] + %tmp631 = fmul double %tmp629a, 0.0e+00 ; [#uses=1] + %tmp632 = fadd double 0.0e+00, %tmp631 ; [#uses=1] %tmp642 = call fastcc i32 @sign( i32 %tmp576, i32 %tmp561 ) ; [#uses=1] %tmp650 = mul i32 %tmp606, %tmp642 ; [#uses=1] %tmp656 = mul i32 %tmp650, %tmp612 ; [#uses=1] @@ -56,7 +56,7 @@ %tmp667 = sitofp i32 %tmp666 to double ; [#uses=2] call void @levrun_linfo_inter( i32 %tmp576, i32 0, i32* null, i32* null ) %tmp671 = fmul double %tmp667, %tmp667 ; [#uses=1] - %tmp675 = fadd double %tmp671, 0.000000e+00 ; [#uses=1] + %tmp675 = fadd double %tmp671, 0.0e+00 ; [#uses=1] %tmp678 = fcmp oeq double %tmp632, %tmp675 ; [#uses=1] br i1 %tmp678, label %cond_true679, label %cond_false693 Index: test/CodeGen/ARM/2008-04-04-ScavengerAssert.ll =================================================================== --- test/CodeGen/ARM/2008-04-04-ScavengerAssert.ll +++ test/CodeGen/ARM/2008-04-04-ScavengerAssert.ll @@ -10,7 +10,7 @@ bb34.outer.i.i.i: ; preds = %entry br i1 false, label %bb2.i.i.i, label %bb47.i.i.i bb2.i.i.i: ; preds = %bb34.outer.i.i.i - %tmp24.i.i.i = call double @pow( double 0.000000e+00, double 2.000000e+00 ) ; [#uses=0] + %tmp24.i.i.i = call double @pow( double 0.0e+00, double 2.0e+00 ) ; [#uses=0] ret void bb47.i.i.i: ; preds = %bb34.outer.i.i.i br i1 false, label %bb220.i.i.i, label %bb62.preheader.i.i.i Index: test/CodeGen/ARM/2009-02-27-SpillerBug.ll =================================================================== --- test/CodeGen/ARM/2009-02-27-SpillerBug.ll +++ test/CodeGen/ARM/2009-02-27-SpillerBug.ll @@ -11,13 +11,13 @@ br label %bb52 bb32: ; preds = %bb52 - %0 = fadd double 0.000000e+00, 0.000000e+00 ; [#uses=1] + %0 = fadd double 0.0e+00, 0.0e+00 ; [#uses=1] %1 = add i32 %j.1, 1 ; [#uses=1] br label %bb52 bb52: ; preds = %bb53, %bb32, %bb.thread %i.3494 = phi i32 [ 0, %bb.thread ], [ %3, %bb53 ], [ %i.3494, %bb32 ] ; [#uses=2] - %k.4 = phi double [ %0, %bb32 ], [ 0.000000e+00, %bb53 ], [ 0.000000e+00, %bb.thread ] ; [#uses=2] + %k.4 = phi double [ %0, %bb32 ], [ 0.0e+00, %bb53 ], [ 0.0e+00, %bb.thread ] ; [#uses=2] %j.1 = phi i32 [ %1, %bb32 ], [ 0, %bb53 ], [ 0, %bb.thread ] ; [#uses=2] %2 = icmp sgt i32 %j.1, 99 ; [#uses=1] br i1 %2, label %bb53, label %bb32 @@ -29,191 +29,191 @@ bb55: ; preds = %bb53 %4 = load double, double* @a, align 4 ; [#uses=10] - %5 = fadd double %4, 0.000000e+00 ; [#uses=16] - %6 = fcmp ogt double %k.4, 0.000000e+00 ; [#uses=1] + %5 = fadd double %4, 0.0e+00 ; [#uses=16] + %6 = fcmp ogt double %k.4, 0.0e+00 ; [#uses=1] %.pn404 = fmul double %4, %4 ; [#uses=4] %.pn402 = fmul double %5, %5 ; [#uses=5] %.pn165.in = load double, double* @N ; [#uses=5] - %.pn198 = fmul double 0.000000e+00, %5 ; [#uses=1] - %.pn185 = fsub double -0.000000e+00, 0.000000e+00 ; [#uses=1] - %.pn147 = fsub double -0.000000e+00, 0.000000e+00 ; [#uses=1] - %.pn141 = fdiv double 0.000000e+00, %4 ; [#uses=1] - %.pn142 = fdiv double 0.000000e+00, %5 ; [#uses=1] - %.pn136 = fdiv double 0.000000e+00, 0.000000e+00 ; [#uses=1] - %.pn132 = fdiv double 0.000000e+00, %5 ; [#uses=1] - %.pn123 = fdiv double 0.000000e+00, 0.000000e+00 ; [#uses=1] - %.pn124 = fdiv double 0.000000e+00, %.pn198 ; [#uses=1] - %.pn120 = fdiv double 0.000000e+00, 0.000000e+00 ; [#uses=1] - %.pn117 = fdiv double 0.000000e+00, %4 ; [#uses=1] + %.pn198 = fmul double 0.0e+00, %5 ; [#uses=1] + %.pn185 = fsub double -0.0e+00, 0.0e+00 ; [#uses=1] + %.pn147 = fsub double -0.0e+00, 0.0e+00 ; [#uses=1] + %.pn141 = fdiv double 0.0e+00, %4 ; [#uses=1] + %.pn142 = fdiv double 0.0e+00, %5 ; [#uses=1] + %.pn136 = fdiv double 0.0e+00, 0.0e+00 ; [#uses=1] + %.pn132 = fdiv double 0.0e+00, %5 ; [#uses=1] + %.pn123 = fdiv double 0.0e+00, 0.0e+00 ; [#uses=1] + %.pn124 = fdiv double 0.0e+00, %.pn198 ; [#uses=1] + %.pn120 = fdiv double 0.0e+00, 0.0e+00 ; [#uses=1] + %.pn117 = fdiv double 0.0e+00, %4 ; [#uses=1] %.pn118 = fdiv double %.pn185, %5 ; [#uses=1] %.pn88 = fdiv double %.pn147, %5 ; [#uses=1] %.pn81 = fsub double %.pn141, %.pn142 ; [#uses=1] - %.pn77 = fsub double 0.000000e+00, %.pn136 ; [#uses=1] - %.pn75 = fsub double 0.000000e+00, %.pn132 ; [#uses=1] + %.pn77 = fsub double 0.0e+00, %.pn136 ; [#uses=1] + %.pn75 = fsub double 0.0e+00, %.pn132 ; [#uses=1] %.pn69 = fsub double %.pn123, %.pn124 ; [#uses=1] - %.pn67 = fsub double 0.000000e+00, %.pn120 ; [#uses=1] + %.pn67 = fsub double 0.0e+00, %.pn120 ; [#uses=1] %.pn56 = fsub double %.pn117, %.pn118 ; [#uses=1] - %.pn42 = fsub double 0.000000e+00, %.pn88 ; [#uses=1] - %.pn60 = fmul double %.pn81, 0.000000e+00 ; [#uses=1] - %.pn57 = fadd double %.pn77, 0.000000e+00 ; [#uses=1] + %.pn42 = fsub double 0.0e+00, %.pn88 ; [#uses=1] + %.pn60 = fmul double %.pn81, 0.0e+00 ; [#uses=1] + %.pn57 = fadd double %.pn77, 0.0e+00 ; [#uses=1] %.pn58 = fmul double %.pn75, %.pn165.in ; [#uses=1] - %.pn32 = fadd double %.pn69, 0.000000e+00 ; [#uses=1] + %.pn32 = fadd double %.pn69, 0.0e+00 ; [#uses=1] %.pn33 = fmul double %.pn67, %.pn165.in ; [#uses=1] - %.pn17 = fsub double 0.000000e+00, %.pn60 ; [#uses=1] + %.pn17 = fsub double 0.0e+00, %.pn60 ; [#uses=1] %.pn9 = fadd double %.pn57, %.pn58 ; [#uses=1] - %.pn30 = fmul double 0.000000e+00, %.pn56 ; [#uses=1] - %.pn24 = fmul double 0.000000e+00, %.pn42 ; [#uses=1] + %.pn30 = fmul double 0.0e+00, %.pn56 ; [#uses=1] + %.pn24 = fmul double 0.0e+00, %.pn42 ; [#uses=1] %.pn1 = fadd double %.pn32, %.pn33 ; [#uses=1] - %.pn28 = fsub double %.pn30, 0.000000e+00 ; [#uses=1] - %.pn26 = fadd double %.pn28, 0.000000e+00 ; [#uses=1] - %.pn22 = fsub double %.pn26, 0.000000e+00 ; [#uses=1] - %.pn20 = fsub double %.pn24, 0.000000e+00 ; [#uses=1] - %.pn18 = fadd double %.pn22, 0.000000e+00 ; [#uses=1] - %.pn16 = fadd double %.pn20, 0.000000e+00 ; [#uses=1] - %.pn14 = fsub double %.pn18, 0.000000e+00 ; [#uses=1] + %.pn28 = fsub double %.pn30, 0.0e+00 ; [#uses=1] + %.pn26 = fadd double %.pn28, 0.0e+00 ; [#uses=1] + %.pn22 = fsub double %.pn26, 0.0e+00 ; [#uses=1] + %.pn20 = fsub double %.pn24, 0.0e+00 ; [#uses=1] + %.pn18 = fadd double %.pn22, 0.0e+00 ; [#uses=1] + %.pn16 = fadd double %.pn20, 0.0e+00 ; [#uses=1] + %.pn14 = fsub double %.pn18, 0.0e+00 ; [#uses=1] %.pn12 = fsub double %.pn16, %.pn17 ; [#uses=1] - %.pn10 = fadd double %.pn14, 0.000000e+00 ; [#uses=1] - %.pn8 = fadd double %.pn12, 0.000000e+00 ; [#uses=1] - %.pn6 = fsub double %.pn10, 0.000000e+00 ; [#uses=1] + %.pn10 = fadd double %.pn14, 0.0e+00 ; [#uses=1] + %.pn8 = fadd double %.pn12, 0.0e+00 ; [#uses=1] + %.pn6 = fsub double %.pn10, 0.0e+00 ; [#uses=1] %.pn4 = fsub double %.pn8, %.pn9 ; [#uses=1] - %.pn2 = fadd double %.pn6, 0.000000e+00 ; [#uses=1] - %.pn = fadd double %.pn4, 0.000000e+00 ; [#uses=1] - %N1.0 = fsub double %.pn2, 0.000000e+00 ; [#uses=2] + %.pn2 = fadd double %.pn6, 0.0e+00 ; [#uses=1] + %.pn = fadd double %.pn4, 0.0e+00 ; [#uses=1] + %N1.0 = fsub double %.pn2, 0.0e+00 ; [#uses=2] %D1.0 = fsub double %.pn, %.pn1 ; [#uses=2] br i1 %6, label %bb62, label %bb64 bb62: ; preds = %bb55 - %7 = fmul double 0.000000e+00, %4 ; [#uses=1] - %8 = fsub double -0.000000e+00, %7 ; [#uses=3] - %9 = fmul double 0.000000e+00, %5 ; [#uses=1] - %10 = fsub double -0.000000e+00, %9 ; [#uses=3] + %7 = fmul double 0.0e+00, %4 ; [#uses=1] + %8 = fsub double -0.0e+00, %7 ; [#uses=3] + %9 = fmul double 0.0e+00, %5 ; [#uses=1] + %10 = fsub double -0.0e+00, %9 ; [#uses=3] %11 = fmul double %.pn404, %4 ; [#uses=5] %12 = fmul double %.pn402, %5 ; [#uses=5] - %13 = fmul double 0.000000e+00, -2.000000e+00 ; [#uses=1] - %14 = fdiv double 0.000000e+00, %.pn402 ; [#uses=1] - %15 = fsub double 0.000000e+00, %14 ; [#uses=1] - %16 = fmul double 0.000000e+00, %15 ; [#uses=1] + %13 = fmul double 0.0e+00, -2.0e+00 ; [#uses=1] + %14 = fdiv double 0.0e+00, %.pn402 ; [#uses=1] + %15 = fsub double 0.0e+00, %14 ; [#uses=1] + %16 = fmul double 0.0e+00, %15 ; [#uses=1] %17 = fadd double %13, %16 ; [#uses=1] - %18 = fmul double %.pn165.in, -2.000000e+00 ; [#uses=5] - %19 = fmul double %18, 0.000000e+00 ; [#uses=1] + %18 = fmul double %.pn165.in, -2.0e+00 ; [#uses=5] + %19 = fmul double %18, 0.0e+00 ; [#uses=1] %20 = fadd double %17, %19 ; [#uses=1] - %21 = fmul double 0.000000e+00, %20 ; [#uses=1] - %22 = fadd double 0.000000e+00, %21 ; [#uses=1] - %23 = fdiv double 0.000000e+00, %12 ; [#uses=1] - %24 = fsub double 0.000000e+00, %23 ; [#uses=0] - %25 = fmul double %18, 0.000000e+00 ; [#uses=1] - %26 = fadd double 0.000000e+00, %25 ; [#uses=1] - %27 = fmul double 0.000000e+00, %26 ; [#uses=1] + %21 = fmul double 0.0e+00, %20 ; [#uses=1] + %22 = fadd double 0.0e+00, %21 ; [#uses=1] + %23 = fdiv double 0.0e+00, %12 ; [#uses=1] + %24 = fsub double 0.0e+00, %23 ; [#uses=0] + %25 = fmul double %18, 0.0e+00 ; [#uses=1] + %26 = fadd double 0.0e+00, %25 ; [#uses=1] + %27 = fmul double 0.0e+00, %26 ; [#uses=1] %28 = fsub double %22, %27 ; [#uses=1] %29 = fmul double %11, %4 ; [#uses=1] %30 = fmul double %12, %5 ; [#uses=3] - %31 = fmul double %.pn165.in, -4.000000e+00 ; [#uses=1] + %31 = fmul double %.pn165.in, -4.0e+00 ; [#uses=1] %32 = fmul double %.pn165.in, 0x3FF5555555555555 ; [#uses=1] - %33 = fmul double %32, 0.000000e+00 ; [#uses=2] - %34 = fadd double %28, 0.000000e+00 ; [#uses=1] - %35 = fsub double -0.000000e+00, 0.000000e+00 ; [#uses=1] + %33 = fmul double %32, 0.0e+00 ; [#uses=2] + %34 = fadd double %28, 0.0e+00 ; [#uses=1] + %35 = fsub double -0.0e+00, 0.0e+00 ; [#uses=1] %36 = fdiv double %35, %11 ; [#uses=1] - %37 = fdiv double 0.000000e+00, %12 ; [#uses=1] + %37 = fdiv double 0.0e+00, %12 ; [#uses=1] %38 = fsub double %36, %37 ; [#uses=1] - %39 = fmul double 0.000000e+00, %38 ; [#uses=1] - %40 = fadd double 0.000000e+00, %39 ; [#uses=1] - %41 = fadd double %40, 0.000000e+00 ; [#uses=1] - %42 = fadd double %41, 0.000000e+00 ; [#uses=1] - %43 = fmul double %42, 0.000000e+00 ; [#uses=1] + %39 = fmul double 0.0e+00, %38 ; [#uses=1] + %40 = fadd double 0.0e+00, %39 ; [#uses=1] + %41 = fadd double %40, 0.0e+00 ; [#uses=1] + %42 = fadd double %41, 0.0e+00 ; [#uses=1] + %43 = fmul double %42, 0.0e+00 ; [#uses=1] %44 = fsub double %34, %43 ; [#uses=1] %45 = tail call double @llvm.exp.f64(double %8) nounwind ; [#uses=1] - %46 = fsub double -0.000000e+00, %45 ; [#uses=2] - %47 = fdiv double %46, 0.000000e+00 ; [#uses=1] + %46 = fsub double -0.0e+00, %45 ; [#uses=2] + %47 = fdiv double %46, 0.0e+00 ; [#uses=1] %48 = fmul double %30, %5 ; [#uses=1] - %49 = fdiv double 0.000000e+00, %48 ; [#uses=1] + %49 = fdiv double 0.0e+00, %48 ; [#uses=1] %50 = fsub double %47, %49 ; [#uses=1] - %51 = fmul double %50, -4.000000e+00 ; [#uses=1] - %52 = fadd double %51, 0.000000e+00 ; [#uses=1] + %51 = fmul double %50, -4.0e+00 ; [#uses=1] + %52 = fadd double %51, 0.0e+00 ; [#uses=1] %53 = fdiv double %46, %11 ; [#uses=1] - %54 = fsub double %53, 0.000000e+00 ; [#uses=1] + %54 = fsub double %53, 0.0e+00 ; [#uses=1] %55 = fmul double %31, %54 ; [#uses=1] %56 = fadd double %52, %55 ; [#uses=1] - %57 = fadd double %56, 0.000000e+00 ; [#uses=1] + %57 = fadd double %56, 0.0e+00 ; [#uses=1] %58 = fadd double %44, %57 ; [#uses=1] - %59 = fsub double %58, 0.000000e+00 ; [#uses=1] - %60 = tail call double @llvm.exp.f64(double 0.000000e+00) nounwind ; [#uses=1] - %61 = fsub double -0.000000e+00, %60 ; [#uses=1] - %62 = fdiv double 0.000000e+00, -6.000000e+00 ; [#uses=1] + %59 = fsub double %58, 0.0e+00 ; [#uses=1] + %60 = tail call double @llvm.exp.f64(double 0.0e+00) nounwind ; [#uses=1] + %61 = fsub double -0.0e+00, %60 ; [#uses=1] + %62 = fdiv double 0.0e+00, -6.0e+00 ; [#uses=1] %63 = fdiv double %61, %5 ; [#uses=1] - %64 = fsub double 0.000000e+00, %63 ; [#uses=1] + %64 = fsub double 0.0e+00, %63 ; [#uses=1] %65 = fmul double %62, %64 ; [#uses=1] - %66 = fsub double 0.000000e+00, %65 ; [#uses=1] - %67 = fsub double -0.000000e+00, 0.000000e+00 ; [#uses=2] + %66 = fsub double 0.0e+00, %65 ; [#uses=1] + %67 = fsub double -0.0e+00, 0.0e+00 ; [#uses=2] %68 = tail call double @llvm.exp.f64(double %10) nounwind ; [#uses=1] - %69 = fsub double -0.000000e+00, %68 ; [#uses=2] + %69 = fsub double -0.0e+00, %68 ; [#uses=2] %70 = fdiv double %67, %.pn404 ; [#uses=1] %71 = fdiv double %69, %.pn402 ; [#uses=1] %72 = fsub double %70, %71 ; [#uses=1] - %73 = fmul double %72, -5.000000e-01 ; [#uses=1] + %73 = fmul double %72, -5.0e-01 ; [#uses=1] %74 = fdiv double %67, %4 ; [#uses=1] %75 = fdiv double %69, %5 ; [#uses=1] %76 = fsub double %74, %75 ; [#uses=1] - %77 = fmul double %76, 0.000000e+00 ; [#uses=1] + %77 = fmul double %76, 0.0e+00 ; [#uses=1] %78 = fadd double %73, %77 ; [#uses=1] - %79 = fmul double 0.000000e+00, %78 ; [#uses=1] + %79 = fmul double 0.0e+00, %78 ; [#uses=1] %80 = fadd double %66, %79 ; [#uses=1] - %81 = fdiv double 0.000000e+00, %.pn404 ; [#uses=1] - %82 = fdiv double 0.000000e+00, %.pn402 ; [#uses=1] + %81 = fdiv double 0.0e+00, %.pn404 ; [#uses=1] + %82 = fdiv double 0.0e+00, %.pn402 ; [#uses=1] %83 = fsub double %81, %82 ; [#uses=1] - %84 = fmul double %83, -5.000000e-01 ; [#uses=1] - %85 = fdiv double 0.000000e+00, %4 ; [#uses=1] - %86 = fdiv double 0.000000e+00, %5 ; [#uses=1] + %84 = fmul double %83, -5.0e-01 ; [#uses=1] + %85 = fdiv double 0.0e+00, %4 ; [#uses=1] + %86 = fdiv double 0.0e+00, %5 ; [#uses=1] %87 = fsub double %85, %86 ; [#uses=1] - %88 = fmul double %87, 0.000000e+00 ; [#uses=1] + %88 = fmul double %87, 0.0e+00 ; [#uses=1] %89 = fadd double %84, %88 ; [#uses=1] - %90 = fmul double 0.000000e+00, %89 ; [#uses=1] + %90 = fmul double 0.0e+00, %89 ; [#uses=1] %91 = fsub double %80, %90 ; [#uses=1] %92 = tail call double @llvm.exp.f64(double %8) nounwind ; [#uses=1] - %93 = fsub double -0.000000e+00, %92 ; [#uses=1] + %93 = fsub double -0.0e+00, %92 ; [#uses=1] %94 = tail call double @llvm.exp.f64(double %10) nounwind ; [#uses=1] - %95 = fsub double -0.000000e+00, %94 ; [#uses=3] + %95 = fsub double -0.0e+00, %94 ; [#uses=3] %96 = fdiv double %95, %.pn402 ; [#uses=1] - %97 = fsub double 0.000000e+00, %96 ; [#uses=1] - %98 = fmul double 0.000000e+00, %97 ; [#uses=1] + %97 = fsub double 0.0e+00, %96 ; [#uses=1] + %98 = fmul double 0.0e+00, %97 ; [#uses=1] %99 = fdiv double %93, %11 ; [#uses=1] %100 = fdiv double %95, %12 ; [#uses=1] %101 = fsub double %99, %100 ; [#uses=1] %102 = fsub double %98, %101 ; [#uses=1] %103 = fdiv double %95, %5 ; [#uses=1] - %104 = fsub double 0.000000e+00, %103 ; [#uses=1] + %104 = fsub double 0.0e+00, %103 ; [#uses=1] %105 = fmul double %18, %104 ; [#uses=1] %106 = fadd double %102, %105 ; [#uses=1] %107 = fmul double %106, %k.4 ; [#uses=1] %108 = fadd double %91, %107 ; [#uses=1] - %109 = fsub double %108, 0.000000e+00 ; [#uses=1] + %109 = fsub double %108, 0.0e+00 ; [#uses=1] %110 = tail call double @llvm.exp.f64(double %8) nounwind ; [#uses=1] - %111 = fsub double -0.000000e+00, %110 ; [#uses=2] + %111 = fsub double -0.0e+00, %110 ; [#uses=2] %112 = tail call double @llvm.exp.f64(double %10) nounwind ; [#uses=1] - %113 = fsub double -0.000000e+00, %112 ; [#uses=2] + %113 = fsub double -0.0e+00, %112 ; [#uses=2] %114 = fdiv double %111, %11 ; [#uses=1] %115 = fdiv double %113, %12 ; [#uses=1] %116 = fsub double %114, %115 ; [#uses=1] - %117 = fmul double 0.000000e+00, %116 ; [#uses=1] + %117 = fmul double 0.0e+00, %116 ; [#uses=1] %118 = fdiv double %111, %29 ; [#uses=1] %119 = fdiv double %113, %30 ; [#uses=1] %120 = fsub double %118, %119 ; [#uses=1] %121 = fsub double %117, %120 ; [#uses=1] - %122 = fmul double %18, 0.000000e+00 ; [#uses=1] + %122 = fmul double %18, 0.0e+00 ; [#uses=1] %123 = fadd double %121, %122 ; [#uses=1] - %124 = fmul double %33, 0.000000e+00 ; [#uses=1] + %124 = fmul double %33, 0.0e+00 ; [#uses=1] %125 = fadd double %123, %124 ; [#uses=1] %126 = fadd double %109, %125 ; [#uses=1] - %127 = tail call double @llvm.exp.f64(double 0.000000e+00) nounwind ; [#uses=1] - %128 = fsub double -0.000000e+00, %127 ; [#uses=2] + %127 = tail call double @llvm.exp.f64(double 0.0e+00) nounwind ; [#uses=1] + %128 = fsub double -0.0e+00, %127 ; [#uses=2] %129 = fdiv double %128, %30 ; [#uses=1] - %130 = fsub double 0.000000e+00, %129 ; [#uses=1] - %131 = fsub double 0.000000e+00, %130 ; [#uses=1] - %132 = fdiv double 0.000000e+00, %.pn404 ; [#uses=1] - %133 = fsub double %132, 0.000000e+00 ; [#uses=1] + %130 = fsub double 0.0e+00, %129 ; [#uses=1] + %131 = fsub double 0.0e+00, %130 ; [#uses=1] + %132 = fdiv double 0.0e+00, %.pn404 ; [#uses=1] + %133 = fsub double %132, 0.0e+00 ; [#uses=1] %134 = fmul double %18, %133 ; [#uses=1] %135 = fadd double %131, %134 ; [#uses=1] %136 = fdiv double %128, %5 ; [#uses=1] - %137 = fsub double 0.000000e+00, %136 ; [#uses=1] + %137 = fsub double 0.0e+00, %136 ; [#uses=1] %138 = fmul double %33, %137 ; [#uses=1] %139 = fadd double %135, %138 ; [#uses=1] %140 = fsub double %126, %139 ; [#uses=1] Index: test/CodeGen/ARM/2009-03-07-SpillerBug.ll =================================================================== --- test/CodeGen/ARM/2009-03-07-SpillerBug.ll +++ test/CodeGen/ARM/2009-03-07-SpillerBug.ll @@ -19,33 +19,33 @@ define i32 @_ZNK34mrDiffuseSolidAngleSphereLuminaire18selectVisiblePointERK8ggPoint3RK9ggVector3RK8ggPoint2dRS0_Rd(%struct.mrDiffuseCosineSphereLuminaire* nocapture %this, %struct.ggPoint3* nocapture %x, %struct.ggPoint3* nocapture %unnamed_arg, %struct.ggPoint2* nocapture %uv, double %unnamed_arg2, %struct.ggPoint3* nocapture %on_light, double* nocapture %invProb) nounwind { entry: - %0 = call double @llvm.sqrt.f64(double 0.000000e+00) nounwind - %1 = fcmp ult double 0.000000e+00, %0 + %0 = call double @llvm.sqrt.f64(double 0.0e+00) nounwind + %1 = fcmp ult double 0.0e+00, %0 br i1 %1, label %bb3, label %bb7 bb3: ; preds = %entry - %2 = fdiv double 1.000000e+00, 0.000000e+00 - %3 = fmul double 0.000000e+00, %2 - %4 = call double @llvm.sqrt.f64(double 0.000000e+00) nounwind - %5 = fdiv double 1.000000e+00, %4 + %2 = fdiv double 1.0e+00, 0.0e+00 + %3 = fmul double 0.0e+00, %2 + %4 = call double @llvm.sqrt.f64(double 0.0e+00) nounwind + %5 = fdiv double 1.0e+00, %4 %6 = fmul double %3, %5 - %7 = fmul double 0.000000e+00, %5 + %7 = fmul double 0.0e+00, %5 %8 = fmul double %3, %7 - %9 = fsub double %8, 0.000000e+00 - %10 = fmul double 0.000000e+00, %6 - %11 = fsub double 0.000000e+00, %10 - %12 = fsub double -0.000000e+00, %11 + %9 = fsub double %8, 0.0e+00 + %10 = fmul double 0.0e+00, %6 + %11 = fsub double 0.0e+00, %10 + %12 = fsub double -0.0e+00, %11 %13 = fmul double %0, %0 - %14 = fsub double %13, 0.000000e+00 + %14 = fsub double %13, 0.0e+00 %15 = call double @llvm.sqrt.f64(double %14) - %16 = fmul double 0.000000e+00, %15 + %16 = fmul double 0.0e+00, %15 %17 = fdiv double %16, %0 - %18 = fadd double 0.000000e+00, %17 + %18 = fadd double 0.0e+00, %17 %19 = call double @acos(double %18) nounwind readonly %20 = load double, double* null, align 4 %21 = fmul double %20, 0x401921FB54442D18 %22 = call double @sin(double %19) nounwind readonly - %23 = fmul double %22, 0.000000e+00 + %23 = fmul double %22, 0.0e+00 %24 = fmul double %6, %23 %25 = fmul double %7, %23 %26 = call double @sin(double %21) nounwind readonly @@ -53,11 +53,11 @@ %28 = fmul double %9, %27 %29 = fmul double %27, %12 %30 = fadd double %24, %28 - %31 = fadd double 0.000000e+00, %29 - %32 = fadd double %25, 0.000000e+00 - %33 = fadd double %30, 0.000000e+00 - %34 = fadd double %31, 0.000000e+00 - %35 = fadd double %32, 0.000000e+00 + %31 = fadd double 0.0e+00, %29 + %32 = fadd double %25, 0.0e+00 + %33 = fadd double %30, 0.0e+00 + %34 = fadd double %31, 0.0e+00 + %35 = fadd double %32, 0.0e+00 %36 = bitcast %struct.ggPoint3* %x to i8* call void @llvm.memcpy.p0i8.p0i8.i32(i8* null, i8* %36, i32 24, i32 4, i1 false) store double %33, double* null, align 8 @@ -67,9 +67,9 @@ unreachable _Z20ggRaySphereIntersectRK6ggRay3RK8ggSphereddRd.exit: ; preds = %bb3 - %37 = fsub double %13, 0.000000e+00 - %38 = fsub double -0.000000e+00, %34 - %39 = fsub double -0.000000e+00, %35 + %37 = fsub double %13, 0.0e+00 + %38 = fsub double -0.0e+00, %34 + %39 = fsub double -0.0e+00, %35 ret i32 1 bb7: ; preds = %entry Index: test/CodeGen/ARM/2009-04-08-FREM.ll =================================================================== --- test/CodeGen/ARM/2009-04-08-FREM.ll +++ test/CodeGen/ARM/2009-04-08-FREM.ll @@ -3,7 +3,7 @@ declare i32 @printf(i8*, ...) define i32 @main() { - %rem_r = frem double 0.000000e+00, 0.000000e+00 ; [#uses=1] + %rem_r = frem double 0.0e+00, 0.0e+00 ; [#uses=1] %1 = call i32 (i8*, ...) @printf(i8* null, double %rem_r) ; [#uses=0] ret i32 0 } Index: test/CodeGen/ARM/2009-04-08-FloatUndef.ll =================================================================== --- test/CodeGen/ARM/2009-04-08-FloatUndef.ll +++ test/CodeGen/ARM/2009-04-08-FloatUndef.ll @@ -3,7 +3,7 @@ define void @execute_shader(<4 x float>* %OUT, <4 x float>* %IN, <4 x float>* %CONST) { entry: %input2 = load <4 x float>, <4 x float>* null, align 16 ; <<4 x float>> [#uses=2] - %shuffle7 = shufflevector <4 x float> %input2, <4 x float> , <4 x i32> ; <<4 x float>> [#uses=1] + %shuffle7 = shufflevector <4 x float> %input2, <4 x float> , <4 x i32> ; <<4 x float>> [#uses=1] %mul1 = fmul <4 x float> %shuffle7, zeroinitializer ; <<4 x float>> [#uses=1] %add2 = fadd <4 x float> %mul1, %input2 ; <<4 x float>> [#uses=1] store <4 x float> %add2, <4 x float>* null, align 16 Index: test/CodeGen/ARM/2009-06-19-RegScavengerAssert.ll =================================================================== --- test/CodeGen/ARM/2009-06-19-RegScavengerAssert.ll +++ test/CodeGen/ARM/2009-06-19-RegScavengerAssert.ll @@ -19,7 +19,7 @@ bb11: ; preds = %bb6 %0 = tail call float @__ieee754_sqrtf(float undef) nounwind ; [#uses=1] - %1 = fmul float %0, -2.000000e+00 ; [#uses=1] + %1 = fmul float %0, -2.0e+00 ; [#uses=1] %2 = fadd float %1, 0x400921FB40000000 ; [#uses=1] ret float %2 Index: test/CodeGen/ARM/2009-06-30-RegScavengerAssert.ll =================================================================== --- test/CodeGen/ARM/2009-06-30-RegScavengerAssert.ll +++ test/CodeGen/ARM/2009-06-30-RegScavengerAssert.ll @@ -46,7 +46,7 @@ %3 = getelementptr i8, i8* %B, i32 %0 ; [#uses=1] tail call void @diff(i8* undef, i8* %3, i32 undef, i32 undef, i32 undef, i32 undef) nounwind %4 = sitofp i32 undef to double ; [#uses=1] - %5 = fdiv double %4, 1.000000e+01 ; [#uses=1] + %5 = fdiv double %4, 1.0e+01 ; [#uses=1] %6 = tail call i32 (i8*, ...) @printf(i8* getelementptr ([29 x i8], [29 x i8]* @"\01LC12", i32 0, i32 0), double %5) nounwind ; [#uses=0] %7 = load i32, i32* @al_len, align 4 ; [#uses=1] %8 = load i32, i32* @no_mat, align 4 ; [#uses=1] Index: test/CodeGen/ARM/2009-07-18-RewriterBug.ll =================================================================== --- test/CodeGen/ARM/2009-07-18-RewriterBug.ll +++ test/CodeGen/ARM/2009-07-18-RewriterBug.ll @@ -97,7 +97,7 @@ %50 = fsub double %41, %23 ; [#uses=1] %51 = fmul double %49, %50 ; [#uses=1] %52 = fsub double %48, %51 ; [#uses=1] - %53 = fcmp ogt double %52, 0.000000e+00 ; [#uses=1] + %53 = fcmp ogt double %52, 0.0e+00 ; [#uses=1] br i1 %53, label %bb1.i1, label %bb3.i bb3.i: ; preds = %bb2.i @@ -117,7 +117,7 @@ %67 = fsub double %62, %41 ; [#uses=1] %68 = fmul double %66, %67 ; [#uses=1] %69 = fsub double %65, %68 ; [#uses=1] - %70 = fcmp ogt double %69, 0.000000e+00 ; [#uses=1] + %70 = fcmp ogt double %69, 0.0e+00 ; [#uses=1] br i1 %70, label %bb4.i, label %bb5.i bb4.i: ; preds = %bb3.i @@ -276,7 +276,7 @@ %198 = fsub double %185, %193 ; [#uses=1] %199 = fmul double %197, %198 ; [#uses=1] %200 = fsub double %196, %199 ; [#uses=1] - %201 = fcmp ogt double %200, 0.000000e+00 ; [#uses=1] + %201 = fcmp ogt double %200, 0.0e+00 ; [#uses=1] br i1 %201, label %bb10.i, label %bb13.i bb10.i: ; preds = %bb9.i @@ -437,7 +437,7 @@ %320 = fsub double %318, %319 ; [#uses=1] %321 = fmul double %317, %320 ; [#uses=1] %322 = fadd double %321, %316 ; [#uses=1] - %323 = fcmp ogt double %322, 0.000000e+00 ; [#uses=1] + %323 = fcmp ogt double %322, 0.0e+00 ; [#uses=1] br i1 %323, label %bb11.i, label %bb13.loopexit.i bb13.loopexit.i: ; preds = %bb12.i @@ -486,7 +486,7 @@ %359 = fsub double %346, %354 ; [#uses=1] %360 = fmul double %358, %359 ; [#uses=1] %361 = fsub double %357, %360 ; [#uses=1] - %362 = fcmp ogt double %361, 0.000000e+00 ; [#uses=1] + %362 = fcmp ogt double %361, 0.0e+00 ; [#uses=1] br i1 %362, label %bb14.i, label %bb17.i bb14.i: ; preds = %bb13.i @@ -657,7 +657,7 @@ %491 = fsub double %489, %490 ; [#uses=1] %492 = fmul double %488, %491 ; [#uses=1] %493 = fadd double %492, %487 ; [#uses=1] - %494 = fcmp ogt double %493, 0.000000e+00 ; [#uses=1] + %494 = fcmp ogt double %493, 0.0e+00 ; [#uses=1] br i1 %494, label %bb15.i, label %bb17.loopexit.i bb17.loopexit.i: ; preds = %bb16.i @@ -694,7 +694,7 @@ %518 = fsub double %505, %513 ; [#uses=2] %519 = fmul double %517, %518 ; [#uses=1] %520 = fsub double %516, %519 ; [#uses=1] - %521 = fcmp ogt double %520, 0.000000e+00 ; [#uses=2] + %521 = fcmp ogt double %520, 0.0e+00 ; [#uses=2] %522 = ptrtoint %struct.edge_rec* %rcand.1.i to i32 ; [#uses=3] %523 = xor i32 %522, 32 ; [#uses=1] %524 = inttoptr i32 %523 to %struct.edge_rec* ; <%struct.edge_rec*> [#uses=1] @@ -709,7 +709,7 @@ %533 = fsub double %528, %511 ; [#uses=1] %534 = fmul double %533, %518 ; [#uses=1] %535 = fsub double %532, %534 ; [#uses=1] - %536 = fcmp ogt double %535, 0.000000e+00 ; [#uses=2] + %536 = fcmp ogt double %535, 0.0e+00 ; [#uses=2] %537 = or i1 %536, %521 ; [#uses=1] br i1 %537, label %bb21.i, label %do_merge.exit @@ -763,7 +763,7 @@ %578 = fsub double %576, %577 ; [#uses=1] %579 = fmul double %575, %578 ; [#uses=1] %580 = fadd double %579, %574 ; [#uses=1] - %581 = fcmp ogt double %580, 0.000000e+00 ; [#uses=1] + %581 = fcmp ogt double %580, 0.0e+00 ; [#uses=1] br i1 %581, label %bb24.i, label %bb25.i bb24.i: ; preds = %bb23.i, %bb21.i @@ -1208,7 +1208,7 @@ %920 = fsub double %907, %915 ; [#uses=1] %921 = fmul double %919, %920 ; [#uses=1] %922 = fsub double %918, %921 ; [#uses=1] - %923 = fcmp ogt double %922, 0.000000e+00 ; [#uses=1] + %923 = fcmp ogt double %922, 0.0e+00 ; [#uses=1] br i1 %923, label %bb15, label %bb13 bb13: ; preds = %bb11 @@ -1219,7 +1219,7 @@ %928 = fsub double %907, %911 ; [#uses=1] %929 = fmul double %927, %928 ; [#uses=1] %930 = fsub double %926, %929 ; [#uses=1] - %931 = fcmp ogt double %930, 0.000000e+00 ; [#uses=1] + %931 = fcmp ogt double %930, 0.0e+00 ; [#uses=1] br i1 %931, label %bb15, label %bb14 bb14: ; preds = %bb13 Index: test/CodeGen/ARM/2009-07-29-VFP3Registers.ll =================================================================== --- test/CodeGen/ARM/2009-07-29-VFP3Registers.ll +++ test/CodeGen/ARM/2009-07-29-VFP3Registers.ll @@ -17,14 +17,14 @@ br i1 undef, label %bb59, label %bb60 bb59: ; preds = %bb28 - %2 = fsub double -0.000000e+00, undef ; [#uses=2] + %2 = fsub double -0.0e+00, undef ; [#uses=2] br label %bb61 bb60: ; preds = %bb28 %3 = tail call double @llvm.exp.f64(double undef) nounwind ; [#uses=1] - %4 = fsub double -0.000000e+00, %3 ; [#uses=2] - %5 = fsub double -0.000000e+00, undef ; [#uses=1] - %6 = fsub double -0.000000e+00, undef ; [#uses=1] + %4 = fsub double -0.0e+00, %3 ; [#uses=2] + %5 = fsub double -0.0e+00, undef ; [#uses=1] + %6 = fsub double -0.0e+00, undef ; [#uses=1] br label %bb61 bb61: ; preds = %bb60, %bb59 @@ -32,14 +32,14 @@ %.pn111 = phi double [ undef, %bb59 ], [ undef, %bb60 ] ; [#uses=1] %.pn452 = phi double [ undef, %bb59 ], [ undef, %bb60 ] ; [#uses=1] %.pn85 = phi double [ undef, %bb59 ], [ undef, %bb60 ] ; [#uses=1] - %.pn238 = phi double [ 0.000000e+00, %bb59 ], [ 0.000000e+00, %bb60 ] ; [#uses=1] + %.pn238 = phi double [ 0.0e+00, %bb59 ], [ 0.0e+00, %bb60 ] ; [#uses=1] %.pn39 = phi double [ undef, %bb59 ], [ undef, %bb60 ] ; [#uses=1] %.pn230 = phi double [ undef, %bb59 ], [ undef, %bb60 ] ; [#uses=1] - %.pn228 = phi double [ 0.000000e+00, %bb59 ], [ undef, %bb60 ] ; [#uses=1] + %.pn228 = phi double [ 0.0e+00, %bb59 ], [ undef, %bb60 ] ; [#uses=1] %.pn224 = phi double [ undef, %bb59 ], [ undef, %bb60 ] ; [#uses=1] - %.pn222 = phi double [ 0.000000e+00, %bb59 ], [ undef, %bb60 ] ; [#uses=1] + %.pn222 = phi double [ 0.0e+00, %bb59 ], [ undef, %bb60 ] ; [#uses=1] %.pn218 = phi double [ %2, %bb59 ], [ %4, %bb60 ] ; [#uses=1] - %.pn214 = phi double [ 0.000000e+00, %bb59 ], [ undef, %bb60 ] ; [#uses=1] + %.pn214 = phi double [ 0.0e+00, %bb59 ], [ undef, %bb60 ] ; [#uses=1] %.pn212 = phi double [ %2, %bb59 ], [ %4, %bb60 ] ; [#uses=1] %.pn213 = phi double [ undef, %bb59 ], [ undef, %bb60 ] ; [#uses=1] %.pn210 = phi double [ undef, %bb59 ], [ %5, %bb60 ] ; [#uses=1] @@ -59,11 +59,11 @@ %.pn76 = fsub double %.pn138, %.pn139 ; [#uses=1] %.pn74 = fsub double %.pn134, %.pn135 ; [#uses=1] %.pn70 = fsub double %.pn128, %.pn129 ; [#uses=1] - %.pn54 = fdiv double %.pn54.in, 6.000000e+00 ; [#uses=1] + %.pn54 = fdiv double %.pn54.in, 6.0e+00 ; [#uses=1] %.pn64 = fmul double undef, 0x3FE5555555555555 ; [#uses=1] %.pn65 = fmul double undef, undef ; [#uses=1] %.pn50 = fmul double undef, %.pn111 ; [#uses=0] - %.pn42 = fdiv double %.pn42.in, 6.000000e+00 ; [#uses=1] + %.pn42 = fdiv double %.pn42.in, 6.0e+00 ; [#uses=1] %.pn40 = fmul double undef, %.pn85 ; [#uses=0] %.pn56 = fadd double %.pn76, undef ; [#uses=1] %.pn57 = fmul double %.pn74, undef ; [#uses=1] @@ -76,14 +76,14 @@ %.pn11 = fadd double %.pn56, %.pn57 ; [#uses=1] %.pn32 = fmul double %.pn54, undef ; [#uses=1] %.pn26 = fmul double %.pn42, undef ; [#uses=1] - %.pn15 = fmul double 0.000000e+00, %.pn39 ; [#uses=1] + %.pn15 = fmul double 0.0e+00, %.pn39 ; [#uses=1] %.pn7 = fadd double %.pn36, %.pn37 ; [#uses=1] %.pn30 = fsub double %.pn32, %.pn33 ; [#uses=1] - %.pn28 = fadd double %.pn30, 0.000000e+00 ; [#uses=1] + %.pn28 = fadd double %.pn30, 0.0e+00 ; [#uses=1] %.pn24 = fsub double %.pn28, %.pn29 ; [#uses=1] %.pn22 = fsub double %.pn26, %.pn27 ; [#uses=1] %.pn20 = fadd double %.pn24, undef ; [#uses=1] - %.pn18 = fadd double %.pn22, 0.000000e+00 ; [#uses=1] + %.pn18 = fadd double %.pn22, 0.0e+00 ; [#uses=1] %.pn16 = fsub double %.pn20, %.pn21 ; [#uses=1] %.pn14 = fsub double %.pn18, undef ; [#uses=1] %.pn12 = fadd double %.pn16, undef ; [#uses=1] Index: test/CodeGen/ARM/2009-08-21-PostRAKill.ll =================================================================== --- test/CodeGen/ARM/2009-08-21-PostRAKill.ll +++ test/CodeGen/ARM/2009-08-21-PostRAKill.ll @@ -21,7 +21,7 @@ %.idx45.val.i = load double, double* %.idx45.i ; [#uses=1] %.idx46.i = getelementptr %struct.tree, %struct.tree* %0, i32 0, i32 2 ; [#uses=1] %.idx46.val.i = load double, double* %.idx46.i ; [#uses=1] - %1 = fsub double 0.000000e+00, %.idx45.val.i ; [#uses=2] + %1 = fsub double 0.0e+00, %.idx45.val.i ; [#uses=2] %2 = fmul double %1, %1 ; [#uses=1] %3 = fsub double %t.idx51.val.i, %.idx46.val.i ; [#uses=2] %4 = fmul double %3, %3 ; [#uses=1] Index: test/CodeGen/ARM/2009-08-21-PostRAKill3.ll =================================================================== --- test/CodeGen/ARM/2009-08-21-PostRAKill3.ll +++ test/CodeGen/ARM/2009-08-21-PostRAKill3.ll @@ -16,7 +16,7 @@ bb1: ; preds = %entry %malloccall = tail call i8* @malloc(i32 ptrtoint (%struct.Village* getelementptr (%struct.Village, %struct.Village* null, i32 1) to i32)) %0 = bitcast i8* %malloccall to %struct.Village* - %exp2 = call double @ldexp(double 1.000000e+00, i32 %level) nounwind ; [#uses=1] + %exp2 = call double @ldexp(double 1.0e+00, i32 %level) nounwind ; [#uses=1] %.c = fptosi double %exp2 to i32 ; [#uses=1] store i32 %.c, i32* null %1 = getelementptr %struct.Village, %struct.Village* %0, i32 0, i32 3, i32 6, i32 0 ; <%struct.List**> [#uses=1] Index: test/CodeGen/ARM/2009-08-29-ExtractEltf32.ll =================================================================== --- test/CodeGen/ARM/2009-08-29-ExtractEltf32.ll +++ test/CodeGen/ARM/2009-08-29-ExtractEltf32.ll @@ -6,7 +6,7 @@ entry: %0 = tail call <2 x float> @llvm.arm.neon.vpadd.v2f32(<2 x float> undef, <2 x float> undef) nounwind ; <<2 x float>> [#uses=1] %tmp28 = extractelement <2 x float> %0, i32 0 ; [#uses=1] - %1 = fcmp une float %tmp28, 4.900000e+01 ; [#uses=1] + %1 = fcmp une float %tmp28, 4.9e+01 ; [#uses=1] br i1 %1, label %bb, label %bb7 bb: ; preds = %entry Index: test/CodeGen/ARM/2009-08-29-TooLongSplat.ll =================================================================== --- test/CodeGen/ARM/2009-08-29-TooLongSplat.ll +++ test/CodeGen/ARM/2009-08-29-TooLongSplat.ll @@ -4,13 +4,13 @@ define void @aaa() nounwind { entry: - %0 = fmul <4 x float> undef, ; <<4 x float>> [#uses=1] + %0 = fmul <4 x float> undef, ; <<4 x float>> [#uses=1] %tmp31 = extractelement <4 x float> %0, i32 0 ; [#uses=1] %1 = fpext float %tmp31 to double ; [#uses=1] - %2 = fsub double 1.000000e+00, %1 ; [#uses=1] - %3 = fdiv double %2, 1.000000e+00 ; [#uses=1] + %2 = fsub double 1.0e+00, %1 ; [#uses=1] + %3 = fdiv double %2, 1.0e+00 ; [#uses=1] %4 = tail call double @fabs(double %3) nounwind readnone ; [#uses=1] - %5 = fcmp ogt double %4, 1.000000e-05 ; [#uses=1] + %5 = fcmp ogt double %4, 1.0e-05 ; [#uses=1] br i1 %5, label %bb, label %bb7 bb: ; preds = %entry Index: test/CodeGen/ARM/2009-09-09-fpcmp-ole.ll =================================================================== --- test/CodeGen/ARM/2009-09-09-fpcmp-ole.ll +++ test/CodeGen/ARM/2009-09-09-fpcmp-ole.ll @@ -4,7 +4,7 @@ define void @test(double* %x, double* %y) nounwind { %1 = load double, double* %x %2 = load double, double* %y - %3 = fsub double -0.000000e+00, %1 + %3 = fsub double -0.0e+00, %1 %4 = fcmp ugt double %2, %3 br i1 %4, label %bb1, label %bb2 Index: test/CodeGen/ARM/2009-09-13-InvalidSubreg.ll =================================================================== --- test/CodeGen/ARM/2009-09-13-InvalidSubreg.ll +++ test/CodeGen/ARM/2009-09-13-InvalidSubreg.ll @@ -39,7 +39,7 @@ %16 = fadd <4 x float> undef, %15 ; <<4 x float>> [#uses=1] %17 = fadd <4 x float> %1, %16 ; <<4 x float>> [#uses=1] %18 = fmul <4 x float> zeroinitializer, %17 ; <<4 x float>> [#uses=1] - %19 = insertelement <4 x float> %18, float 0.000000e+00, i32 3 ; <<4 x float>> [#uses=2] + %19 = insertelement <4 x float> %18, float 0.0e+00, i32 3 ; <<4 x float>> [#uses=2] %20 = shufflevector <4 x float> %19, <4 x float> undef, <2 x i32> ; <<2 x float>> [#uses=1] %21 = shufflevector <4 x float> %19, <4 x float> undef, <2 x i32> ; <<2 x float>> [#uses=1] %22 = tail call <2 x float> @llvm.arm.neon.vpadd.v2f32(<2 x float> %20, <2 x float> %21) nounwind ; <<2 x float>> [#uses=2] @@ -47,7 +47,7 @@ %24 = shufflevector <2 x float> %23, <2 x float> %23, <4 x i32> zeroinitializer ; <<4 x float>> [#uses=1] %25 = fadd <4 x float> %24, zeroinitializer ; <<4 x float>> [#uses=1] %tmp46 = extractelement <4 x float> %25, i32 0 ; [#uses=1] - %26 = fcmp olt float %tmp46, 0.000000e+00 ; [#uses=1] + %26 = fcmp olt float %tmp46, 0.0e+00 ; [#uses=1] br i1 %26, label %bb41, label %bb33 bb33: ; preds = %bb, %entry Index: test/CodeGen/ARM/2009-09-23-LiveVariablesBug.ll =================================================================== --- test/CodeGen/ARM/2009-09-23-LiveVariablesBug.ll +++ test/CodeGen/ARM/2009-09-23-LiveVariablesBug.ll @@ -7,8 +7,8 @@ define arm_aapcs_vfpcc %struct.1* @hhh3(%struct.1* %this, <4 x float> %lenation.0, <4 x float> %legalation.0) nounwind { entry: - %0 = call arm_aapcs_vfpcc %struct.4* @sss1(%struct.4* undef, float 0.000000e+00) nounwind ; <%struct.4*> [#uses=0] - %1 = call arm_aapcs_vfpcc %struct.4* @qqq1(%struct.4* null, float 5.000000e-01) nounwind ; <%struct.4*> [#uses=0] + %0 = call arm_aapcs_vfpcc %struct.4* @sss1(%struct.4* undef, float 0.0e+00) nounwind ; <%struct.4*> [#uses=0] + %1 = call arm_aapcs_vfpcc %struct.4* @qqq1(%struct.4* null, float 5.0e-01) nounwind ; <%struct.4*> [#uses=0] %val92 = load <4 x float>, <4 x float>* null ; <<4 x float>> [#uses=1] %2 = call arm_aapcs_vfpcc %struct.4* @zzz2(%struct.4* undef, <4 x float> %val92) nounwind ; <%struct.4*> [#uses=0] ret %struct.1* %this Index: test/CodeGen/ARM/2009-09-27-CoalescerBug.ll =================================================================== --- test/CodeGen/ARM/2009-09-27-CoalescerBug.ll +++ test/CodeGen/ARM/2009-09-27-CoalescerBug.ll @@ -7,11 +7,11 @@ define arm_aapcs_vfpcc i64 @__fixsfdi(float %a) nounwind { entry: - %0 = fcmp olt float %a, 0.000000e+00 ; [#uses=1] + %0 = fcmp olt float %a, 0.0e+00 ; [#uses=1] br i1 %0, label %bb, label %bb1 bb: ; preds = %entry - %1 = fsub float -0.000000e+00, %a ; [#uses=1] + %1 = fsub float -0.0e+00, %a ; [#uses=1] %2 = tail call arm_aapcs_vfpcc i64 @__fixunssfdi(float %1) nounwind ; [#uses=1] %3 = sub i64 0, %2 ; [#uses=1] ret i64 %3 Index: test/CodeGen/ARM/2009-09-28-LdStOptiBug.ll =================================================================== --- test/CodeGen/ARM/2009-09-28-LdStOptiBug.ll +++ test/CodeGen/ARM/2009-09-28-LdStOptiBug.ll @@ -8,8 +8,8 @@ ; CHECK: bl __aeabi_dadd ; CHECK-NOT: strd ; CHECK: mov - %x76 = fmul double %y.0, 0.000000e+00 ; [#uses=1] - %x77 = fadd double %y.0, 0.000000e+00 ; [#uses=1] + %x76 = fmul double %y.0, 0.0e+00 ; [#uses=1] + %x77 = fadd double %y.0, 0.0e+00 ; [#uses=1] %tmpr = fadd double %x.0, %x76 ; [#uses=1] %agg.result.0 = getelementptr %0, %0* %agg.result, i32 0, i32 0 ; [#uses=1] store double %tmpr, double* %agg.result.0, align 8 Index: test/CodeGen/ARM/2009-10-02-NEONSubregsBug.ll =================================================================== --- test/CodeGen/ARM/2009-10-02-NEONSubregsBug.ll +++ test/CodeGen/ARM/2009-10-02-NEONSubregsBug.ll @@ -11,7 +11,7 @@ %2 = insertelement <4 x float> undef, float undef, i32 1 ; <<4 x float>> [#uses=1] %3 = insertelement <4 x float> %2, float %1, i32 2 ; <<4 x float>> [#uses=2] %4 = insertelement <4 x float> undef, float %0, i32 2 ; <<4 x float>> [#uses=1] - %5 = insertelement <4 x float> %4, float 0.000000e+00, i32 3 ; <<4 x float>> [#uses=4] + %5 = insertelement <4 x float> %4, float 0.0e+00, i32 3 ; <<4 x float>> [#uses=4] %6 = fsub <4 x float> zeroinitializer, %3 ; <<4 x float>> [#uses=1] %7 = shufflevector <4 x float> %6, <4 x float> undef, <4 x i32> zeroinitializer ; <<4 x float>> [#uses=2] %8 = shufflevector <4 x float> %5, <4 x float> undef, <2 x i32> ; <<2 x float>> [#uses=1] @@ -33,11 +33,11 @@ %24 = fadd <4 x float> %20, %23 ; <<4 x float>> [#uses=1] %25 = shufflevector <4 x float> %18, <4 x float> %24, <4 x i32> ; <<4 x float>> [#uses=1] %26 = shufflevector <4 x float> %25, <4 x float> undef, <4 x i32> ; <<4 x float>> [#uses=1] - %27 = fmul <4 x float> %26, ; <<4 x float>> [#uses=1] - %28 = fsub <4 x float> , %5 ; <<4 x float>> [#uses=1] + %27 = fmul <4 x float> %26, ; <<4 x float>> [#uses=1] + %28 = fsub <4 x float> , %5 ; <<4 x float>> [#uses=1] %29 = tail call <4 x float> @llvm.arm.neon.vrecpe.v4f32(<4 x float> zeroinitializer) nounwind ; <<4 x float>> [#uses=1] %30 = fmul <4 x float> zeroinitializer, %29 ; <<4 x float>> [#uses=1] - %31 = fmul <4 x float> %30, ; <<4 x float>> [#uses=1] + %31 = fmul <4 x float> %30, ; <<4 x float>> [#uses=1] %32 = shufflevector <4 x float> %27, <4 x float> undef, <4 x i32> zeroinitializer ; <<4 x float>> [#uses=1] %33 = shufflevector <4 x float> %28, <4 x float> undef, <2 x i32> ; <<2 x float>> [#uses=1] %34 = shufflevector <2 x float> %33, <2 x float> undef, <4 x i32> ; <<4 x float>> [#uses=1] @@ -51,7 +51,7 @@ %42 = shufflevector <4 x float> undef, <4 x float> %41, <4 x i32> ; <<4 x float>> [#uses=1] %43 = fmul <4 x float> %42, %31 ; <<4 x float>> [#uses=1] store float undef, float* undef, align 4 - store float 0.000000e+00, float* null, align 4 + store float 0.0e+00, float* null, align 4 %44 = extractelement <4 x float> %43, i32 1 ; [#uses=1] store float %44, float* undef, align 4 br i1 undef, label %return, label %bb Index: test/CodeGen/ARM/2009-10-27-double-align.ll =================================================================== --- test/CodeGen/ARM/2009-10-27-double-align.ll +++ test/CodeGen/ARM/2009-10-27-double-align.ll @@ -8,7 +8,7 @@ ;CHECK: [sp, #8] ;CHECK: [sp, #12] ;CHECK: [sp] - tail call void (i8*, ...) @f(i8* getelementptr ([1 x i8], [1 x i8]* @.str, i32 0, i32 0), i32 1, double 2.000000e+00, i32 3, double 4.000000e+00) + tail call void (i8*, ...) @f(i8* getelementptr ([1 x i8], [1 x i8]* @.str, i32 0, i32 0), i32 1, double 2.0e+00, i32 3, double 4.0e+00) ret void } Index: test/CodeGen/ARM/2009-11-07-SubRegAsmPrinting.ll =================================================================== --- test/CodeGen/ARM/2009-11-07-SubRegAsmPrinting.ll +++ test/CodeGen/ARM/2009-11-07-SubRegAsmPrinting.ll @@ -8,26 +8,26 @@ entry: %0 = load float, float* null, align 4 ; [#uses=2] %1 = fmul float %0, undef ; [#uses=2] - %2 = fmul float 0.000000e+00, %1 ; [#uses=2] + %2 = fmul float 0.0e+00, %1 ; [#uses=2] %3 = fmul float %0, %1 ; [#uses=1] - %4 = fadd float 0.000000e+00, %3 ; [#uses=1] - %5 = fsub float 1.000000e+00, %4 ; [#uses=1] + %4 = fadd float 0.0e+00, %3 ; [#uses=1] + %5 = fsub float 1.0e+00, %4 ; [#uses=1] ; CHECK-LABEL: foo: -; CHECK: vmov.f32 s{{[0-9]+}}, #1.000000e+00 - %6 = fsub float 1.000000e+00, undef ; [#uses=2] +; CHECK: vmov.f32 s{{[0-9]+}}, #1.0e+00 + %6 = fsub float 1.0e+00, undef ; [#uses=2] %7 = fsub float %2, undef ; [#uses=1] - %8 = fsub float 0.000000e+00, undef ; [#uses=3] + %8 = fsub float 0.0e+00, undef ; [#uses=3] %9 = fadd float %2, undef ; [#uses=3] %10 = load float, float* undef, align 8 ; [#uses=3] %11 = fmul float %8, %10 ; [#uses=1] %12 = fadd float undef, %11 ; [#uses=2] %13 = fmul float undef, undef ; [#uses=1] - %14 = fmul float %6, 0.000000e+00 ; [#uses=1] + %14 = fmul float %6, 0.0e+00 ; [#uses=1] %15 = fadd float %13, %14 ; [#uses=1] %16 = fmul float %9, %10 ; [#uses=1] %17 = fadd float %15, %16 ; [#uses=2] - %18 = fmul float 0.000000e+00, undef ; [#uses=1] - %19 = fadd float %18, 0.000000e+00 ; [#uses=1] + %18 = fmul float 0.0e+00, undef ; [#uses=1] + %19 = fadd float %18, 0.0e+00 ; [#uses=1] %20 = fmul float undef, %10 ; [#uses=1] %21 = fadd float %19, %20 ; [#uses=1] %22 = load float, float* undef, align 8 ; [#uses=1] @@ -44,7 +44,7 @@ %33 = fadd float undef, %32 ; [#uses=1] %34 = fmul float %9, undef ; [#uses=1] %35 = fadd float %33, %34 ; [#uses=1] - %36 = fmul float 0.000000e+00, undef ; [#uses=1] + %36 = fmul float 0.0e+00, undef ; [#uses=1] %37 = fmul float %7, undef ; [#uses=1] %38 = fadd float %36, %37 ; [#uses=1] %39 = fmul float undef, undef ; [#uses=1] Index: test/CodeGen/ARM/2009-11-13-CoalescerCrash.ll =================================================================== --- test/CodeGen/ARM/2009-11-13-CoalescerCrash.ll +++ test/CodeGen/ARM/2009-11-13-CoalescerCrash.ll @@ -11,10 +11,10 @@ bb48: ; preds = %entry %0 = call arm_aapcs_vfpcc %0 @bbb(%pln* undef, %vec* %vstart, %vec* undef) nounwind ; <%0> [#uses=0] - ret float 0.000000e+00 + ret float 0.0e+00 bb81: ; preds = %entry - ret float 0.000000e+00 + ret float 0.0e+00 } declare arm_aapcs_vfpcc %0 @bbb(%pln* nocapture, %vec* nocapture, %vec* nocapture) nounwind Index: test/CodeGen/ARM/2009-11-13-ScavengerAssert.ll =================================================================== --- test/CodeGen/ARM/2009-11-13-ScavengerAssert.ll +++ test/CodeGen/ARM/2009-11-13-ScavengerAssert.ll @@ -15,23 +15,23 @@ bb: ; preds = %entry %0 = getelementptr inbounds %bar, %bar* null, i32 0, i32 0, i32 0, i32 2 ; [#uses=2] %1 = load float, float* undef, align 4 ; [#uses=1] - %2 = fsub float 0.000000e+00, undef ; [#uses=2] - %3 = fmul float 0.000000e+00, undef ; [#uses=1] + %2 = fsub float 0.0e+00, undef ; [#uses=2] + %3 = fmul float 0.0e+00, undef ; [#uses=1] %4 = load float, float* %0, align 4 ; [#uses=3] %5 = fmul float %4, %2 ; [#uses=1] %6 = fsub float %3, %5 ; [#uses=1] %7 = fmul float %4, undef ; [#uses=1] %8 = fsub float %7, undef ; [#uses=1] %9 = fmul float undef, %2 ; [#uses=1] - %10 = fmul float 0.000000e+00, undef ; [#uses=1] + %10 = fmul float 0.0e+00, undef ; [#uses=1] %11 = fsub float %9, %10 ; [#uses=1] %12 = fmul float undef, %6 ; [#uses=1] - %13 = fmul float 0.000000e+00, %8 ; [#uses=1] + %13 = fmul float 0.0e+00, %8 ; [#uses=1] %14 = fadd float %12, %13 ; [#uses=1] %15 = fmul float %1, %11 ; [#uses=1] %16 = fadd float %14, %15 ; [#uses=1] %17 = select i1 undef, float undef, float %16 ; [#uses=1] - %18 = fdiv float %17, 0.000000e+00 ; [#uses=1] + %18 = fdiv float %17, 0.0e+00 ; [#uses=1] store float %18, float* undef, align 4 %19 = fmul float %4, undef ; [#uses=1] store float %19, float* %0, align 4 Index: test/CodeGen/ARM/2009-11-13-ScavengerAssert2.ll =================================================================== --- test/CodeGen/ARM/2009-11-13-ScavengerAssert2.ll +++ test/CodeGen/ARM/2009-11-13-ScavengerAssert2.ll @@ -20,7 +20,7 @@ bb3.i: ; preds = %bb2.i, %bb %0 = getelementptr inbounds %quuz, %quuz* %a, i32 0, i32 1, i32 0, i32 0 ; [#uses=0] - %1 = fsub float 0.000000e+00, undef ; [#uses=1] + %1 = fsub float 0.0e+00, undef ; [#uses=1] %2 = getelementptr inbounds %quuz, %quuz* %b, i32 0, i32 1, i32 0, i32 1 ; [#uses=2] %3 = load float, float* %2, align 4 ; [#uses=1] %4 = getelementptr inbounds %quuz, %quuz* %a, i32 0, i32 1, i32 0, i32 1 ; [#uses=1] @@ -37,7 +37,7 @@ %15 = load float, float* undef, align 4 ; [#uses=1] %16 = fsub float %15, undef ; [#uses=1] %17 = fmul float %5, %16 ; [#uses=1] - %18 = fsub float %17, 0.000000e+00 ; [#uses=5] + %18 = fsub float %17, 0.0e+00 ; [#uses=5] %19 = fmul float %8, %11 ; [#uses=1] %20 = fsub float %19, undef ; [#uses=3] %21 = fmul float %1, %14 ; [#uses=1] @@ -60,13 +60,13 @@ %35 = fsub float %33, %34 ; [#uses=2] %36 = fmul float %20, %35 ; [#uses=1] %37 = fsub float %36, undef ; [#uses=1] - %38 = fmul float %23, 0.000000e+00 ; [#uses=1] + %38 = fmul float %23, 0.0e+00 ; [#uses=1] %39 = fmul float %18, %35 ; [#uses=1] %40 = fsub float %38, %39 ; [#uses=1] - %41 = fmul float %18, 0.000000e+00 ; [#uses=1] - %42 = fmul float %20, 0.000000e+00 ; [#uses=1] + %41 = fmul float %18, 0.0e+00 ; [#uses=1] + %42 = fmul float %20, 0.0e+00 ; [#uses=1] %43 = fsub float %41, %42 ; [#uses=1] - %44 = fmul float 0.000000e+00, %37 ; [#uses=1] + %44 = fmul float 0.0e+00, %37 ; [#uses=1] %45 = fmul float %31, %40 ; [#uses=1] %46 = fadd float %44, %45 ; [#uses=1] %47 = fmul float %33, %43 ; [#uses=1] @@ -84,12 +84,12 @@ %59 = fmul float %54, %50 ; [#uses=1] %60 = fsub float %58, %59 ; [#uses=1] %61 = fmul float %30, %57 ; [#uses=1] - %62 = fmul float %32, 0.000000e+00 ; [#uses=1] + %62 = fmul float %32, 0.0e+00 ; [#uses=1] %63 = fadd float %61, %62 ; [#uses=1] %64 = fmul float %34, %60 ; [#uses=1] %65 = fadd float %63, %64 ; [#uses=2] %66 = fcmp olt float %48, %65 ; [#uses=1] - %67 = fsub float %49, 0.000000e+00 ; [#uses=1] + %67 = fsub float %49, 0.0e+00 ; [#uses=1] %68 = fsub float %51, %31 ; [#uses=1] %69 = fsub float %53, %33 ; [#uses=1] %70 = fmul float undef, %67 ; [#uses=1] @@ -97,16 +97,16 @@ %72 = fmul float %71, %69 ; [#uses=1] %73 = fsub float %70, %72 ; [#uses=1] %74 = fmul float %71, %68 ; [#uses=1] - %75 = fsub float %74, 0.000000e+00 ; [#uses=1] + %75 = fsub float %74, 0.0e+00 ; [#uses=1] %76 = fmul float %51, %73 ; [#uses=1] %77 = fadd float undef, %76 ; [#uses=1] %78 = fmul float %53, %75 ; [#uses=1] %79 = fadd float %77, %78 ; [#uses=1] %80 = select i1 %66, float %48, float %65 ; [#uses=1] %81 = select i1 undef, float %80, float %79 ; [#uses=1] - %iftmp.164.0 = select i1 undef, float %29, float 1.000000e+00 ; [#uses=1] + %iftmp.164.0 = select i1 undef, float %29, float 1.0e+00 ; [#uses=1] %82 = fdiv float %81, %iftmp.164.0 ; [#uses=1] - %iftmp.165.0 = select i1 undef, float %82, float 0.000000e+00 ; [#uses=1] + %iftmp.165.0 = select i1 undef, float %82, float 0.0e+00 ; [#uses=1] store float %iftmp.165.0, float* undef, align 4 br i1 false, label %bb4.i97, label %ccc.exit98 Index: test/CodeGen/ARM/2009-11-13-VRRewriterCrash.ll =================================================================== --- test/CodeGen/ARM/2009-11-13-VRRewriterCrash.ll +++ test/CodeGen/ARM/2009-11-13-VRRewriterCrash.ll @@ -22,24 +22,24 @@ bb3.i: ; preds = %bb2.i, %bb %1 = getelementptr inbounds %quuz, %quuz* %a, i32 0, i32 1, i32 0, i32 0 ; [#uses=1] - %2 = fsub float 0.000000e+00, undef ; [#uses=1] + %2 = fsub float 0.0e+00, undef ; [#uses=1] %3 = getelementptr inbounds %quuz, %quuz* %b, i32 0, i32 1, i32 0, i32 1 ; [#uses=1] %4 = getelementptr inbounds %quuz, %quuz* %b, i32 0, i32 1, i32 0, i32 2 ; [#uses=1] - %5 = fsub float 0.000000e+00, undef ; [#uses=1] + %5 = fsub float 0.0e+00, undef ; [#uses=1] %6 = getelementptr inbounds %quuz, %quuz* %c, i32 0, i32 1, i32 0, i32 0 ; [#uses=1] %7 = getelementptr inbounds %quuz, %quuz* %c, i32 0, i32 1, i32 0, i32 1 ; [#uses=1] %8 = fsub float undef, undef ; [#uses=1] - %9 = fmul float 0.000000e+00, %8 ; [#uses=1] - %10 = fmul float %5, 0.000000e+00 ; [#uses=1] + %9 = fmul float 0.0e+00, %8 ; [#uses=1] + %10 = fmul float %5, 0.0e+00 ; [#uses=1] %11 = fsub float %9, %10 ; [#uses=3] - %12 = fmul float %2, 0.000000e+00 ; [#uses=1] - %13 = fmul float 0.000000e+00, undef ; [#uses=1] + %12 = fmul float %2, 0.0e+00 ; [#uses=1] + %13 = fmul float 0.0e+00, undef ; [#uses=1] %14 = fsub float %12, %13 ; [#uses=2] store float %14, float* undef %15 = getelementptr inbounds %bar, %bar* %0, i32 0, i32 0, i32 0, i32 3 ; [#uses=1] - store float 0.000000e+00, float* %15 + store float 0.0e+00, float* %15 %16 = fmul float %11, %11 ; [#uses=1] - %17 = fadd float %16, 0.000000e+00 ; [#uses=1] + %17 = fadd float %16, 0.0e+00 ; [#uses=1] %18 = fadd float %17, undef ; [#uses=1] %19 = call arm_aapcs_vfpcc float @sqrtf(float %18) readnone ; [#uses=2] %20 = fcmp ogt float %19, 0x3F1A36E2E0000000 ; [#uses=1] @@ -48,12 +48,12 @@ %23 = load float, float* undef, align 4 ; [#uses=2] %24 = load float, float* %4, align 4 ; [#uses=2] %25 = fsub float %23, %24 ; [#uses=2] - %26 = fmul float 0.000000e+00, %25 ; [#uses=1] + %26 = fmul float 0.0e+00, %25 ; [#uses=1] %27 = fsub float %26, undef ; [#uses=1] - %28 = fmul float %14, 0.000000e+00 ; [#uses=1] + %28 = fmul float %14, 0.0e+00 ; [#uses=1] %29 = fmul float %11, %25 ; [#uses=1] %30 = fsub float %28, %29 ; [#uses=1] - %31 = fsub float undef, 0.000000e+00 ; [#uses=1] + %31 = fsub float undef, 0.0e+00 ; [#uses=1] %32 = fmul float %21, %27 ; [#uses=1] %33 = fmul float undef, %30 ; [#uses=1] %34 = fadd float %32, %33 ; [#uses=1] @@ -68,9 +68,9 @@ %43 = fmul float undef, %39 ; [#uses=1] %44 = fsub float %42, %43 ; [#uses=1] %45 = fmul float undef, %39 ; [#uses=1] - %46 = fmul float %41, 0.000000e+00 ; [#uses=1] + %46 = fmul float %41, 0.0e+00 ; [#uses=1] %47 = fsub float %45, %46 ; [#uses=1] - %48 = fmul float 0.000000e+00, %44 ; [#uses=1] + %48 = fmul float 0.0e+00, %44 ; [#uses=1] %49 = fmul float %22, undef ; [#uses=1] %50 = fadd float %48, %49 ; [#uses=1] %51 = fmul float %24, %47 ; [#uses=1] @@ -93,7 +93,7 @@ %68 = fadd float %66, %67 ; [#uses=1] %69 = select i1 undef, float %36, float %52 ; [#uses=1] %70 = select i1 undef, float %69, float %68 ; [#uses=1] - %iftmp.164.0 = select i1 %20, float %19, float 1.000000e+00 ; [#uses=1] + %iftmp.164.0 = select i1 %20, float %19, float 1.0e+00 ; [#uses=1] %71 = fdiv float %70, %iftmp.164.0 ; [#uses=1] store float %71, float* null, align 4 %72 = icmp eq %bar* null, %0 ; [#uses=1] Index: test/CodeGen/ARM/2010-04-09-NeonSelect.ll =================================================================== --- test/CodeGen/ARM/2010-04-09-NeonSelect.ll +++ test/CodeGen/ARM/2010-04-09-NeonSelect.ll @@ -8,7 +8,7 @@ %1 = fsub <4 x float> %0, undef ; <<4 x float>> [#uses=1] %2 = shufflevector <4 x float> %1, <4 x float> undef, <4 x i32> ; <<4 x float>> [#uses=1] %3 = shufflevector <4 x float> undef, <4 x float> %2, <4 x i32> ; <<4 x float>> [#uses=1] - %4 = fmul <4 x float> %3, ; <<4 x float>> [#uses=1] + %4 = fmul <4 x float> %3, ; <<4 x float>> [#uses=1] %5 = fadd <4 x float> undef, %4 ; <<4 x float>> [#uses=1] %6 = fadd <4 x float> undef, %5 ; <<4 x float>> [#uses=1] %7 = fadd <4 x float> undef, %6 ; <<4 x float>> [#uses=1] Index: test/CodeGen/ARM/2010-06-21-LdStMultipleBug.ll =================================================================== --- test/CodeGen/ARM/2010-06-21-LdStMultipleBug.ll +++ test/CodeGen/ARM/2010-06-21-LdStMultipleBug.ll @@ -44,7 +44,7 @@ %iftmp.40.0.neg = sdiv i32 0, -2 ; [#uses=2] %12 = sub nsw i32 0, %9 ; [#uses=1] %13 = sitofp i32 %12 to double ; [#uses=1] - %14 = fdiv double %13, 0.000000e+00 ; [#uses=1] + %14 = fdiv double %13, 0.0e+00 ; [#uses=1] %15 = fptosi double %14 to i32 ; [#uses=1] %iftmp.41.0.in = add i32 0, %15 ; [#uses=1] %iftmp.41.0.neg = sdiv i32 %iftmp.41.0.in, -2 ; [#uses=3] @@ -52,18 +52,18 @@ bb21: ; preds = %bb13 %16 = fptosi double undef to i32 ; [#uses=1] - %17 = fsub double undef, 0.000000e+00 ; [#uses=1] - %not.460 = fcmp oge double %17, 5.000000e-01 ; [#uses=1] + %17 = fsub double undef, 0.0e+00 ; [#uses=1] + %not.460 = fcmp oge double %17, 5.0e-01 ; [#uses=1] %18 = zext i1 %not.460 to i32 ; [#uses=1] %iftmp.42.0 = add i32 %16, %iftmp.41.0.neg ; [#uses=1] %19 = add i32 %iftmp.42.0, %18 ; [#uses=1] store i32 %19, i32* undef, align 4 %20 = sub nsw i32 0, %9 ; [#uses=1] %21 = sitofp i32 %20 to double ; [#uses=1] - %22 = fdiv double %21, 0.000000e+00 ; [#uses=2] + %22 = fdiv double %21, 0.0e+00 ; [#uses=2] %23 = fptosi double %22 to i32 ; [#uses=1] %24 = fsub double %22, undef ; [#uses=1] - %not.461 = fcmp oge double %24, 5.000000e-01 ; [#uses=1] + %not.461 = fcmp oge double %24, 5.0e-01 ; [#uses=1] %25 = zext i1 %not.461 to i32 ; [#uses=1] %iftmp.43.0 = add i32 %23, %iftmp.41.0.neg ; [#uses=1] %26 = add i32 %iftmp.43.0, %25 ; [#uses=1] @@ -80,14 +80,14 @@ %30 = load i32, i32* undef, align 4 ; [#uses=1] %31 = sub nsw i32 %30, %9 ; [#uses=1] %32 = sitofp i32 %31 to double ; [#uses=1] - %33 = fdiv double %32, 0.000000e+00 ; [#uses=1] + %33 = fdiv double %32, 0.0e+00 ; [#uses=1] %34 = fptosi double %33 to i32 ; [#uses=1] %iftmp.46.0 = add i32 %34, %iftmp.41.0.neg ; [#uses=1] %35 = add i32 %iftmp.46.0, 0 ; [#uses=1] store i32 %35, i32* undef, align 4 %36 = sub nsw i32 0, %11 ; [#uses=1] %37 = sitofp i32 %36 to double ; [#uses=1] - %38 = fmul double %37, 0.000000e+00 ; [#uses=1] + %38 = fmul double %37, 0.0e+00 ; [#uses=1] %39 = fptosi double %38 to i32 ; [#uses=1] %iftmp.47.0 = add i32 %39, %iftmp.40.0.neg ; [#uses=1] %40 = add i32 %iftmp.47.0, 0 ; [#uses=1] Index: test/CodeGen/ARM/2011-11-14-EarlyClobber.ll =================================================================== --- test/CodeGen/ARM/2011-11-14-EarlyClobber.ll +++ test/CodeGen/ARM/2011-11-14-EarlyClobber.ll @@ -17,25 +17,25 @@ define void @Compute_Axis_Rotation_Transform(%struct.Transform_Struct.0.11.12.17.43.46.56.58.60* nocapture %transform, double* nocapture %V1, double %angle) nounwind { entry: - store double 1.000000e+00, double* null, align 4 + store double 1.0e+00, double* null, align 4 %arrayidx5.1.i = getelementptr inbounds %struct.Transform_Struct.0.11.12.17.43.46.56.58.60, %struct.Transform_Struct.0.11.12.17.43.46.56.58.60* %transform, i32 0, i32 0, i32 0, i32 1 - store double 0.000000e+00, double* %arrayidx5.1.i, align 4 + store double 0.0e+00, double* %arrayidx5.1.i, align 4 %arrayidx5.2.i = getelementptr inbounds %struct.Transform_Struct.0.11.12.17.43.46.56.58.60, %struct.Transform_Struct.0.11.12.17.43.46.56.58.60* %transform, i32 0, i32 0, i32 0, i32 2 - store double 0.000000e+00, double* %arrayidx5.2.i, align 4 + store double 0.0e+00, double* %arrayidx5.2.i, align 4 %arrayidx5.114.i = getelementptr inbounds %struct.Transform_Struct.0.11.12.17.43.46.56.58.60, %struct.Transform_Struct.0.11.12.17.43.46.56.58.60* %transform, i32 0, i32 0, i32 1, i32 0 - store double 0.000000e+00, double* %arrayidx5.114.i, align 4 + store double 0.0e+00, double* %arrayidx5.114.i, align 4 %arrayidx5.1.1.i = getelementptr inbounds %struct.Transform_Struct.0.11.12.17.43.46.56.58.60, %struct.Transform_Struct.0.11.12.17.43.46.56.58.60* %transform, i32 0, i32 0, i32 1, i32 1 - store double 1.000000e+00, double* %arrayidx5.1.1.i, align 4 - store double 0.000000e+00, double* null, align 4 - store double 1.000000e+00, double* null, align 4 - store double 0.000000e+00, double* null, align 4 + store double 1.0e+00, double* %arrayidx5.1.1.i, align 4 + store double 0.0e+00, double* null, align 4 + store double 1.0e+00, double* null, align 4 + store double 0.0e+00, double* null, align 4 %call = tail call double @cos(double %angle) nounwind readnone %call1 = tail call double @sin(double %angle) nounwind readnone %0 = load double, double* %V1, align 4 %arrayidx2 = getelementptr inbounds double, double* %V1, i32 1 %1 = load double, double* %arrayidx2, align 4 %mul = fmul double %0, %1 - %sub = fsub double 1.000000e+00, %call + %sub = fsub double 1.0e+00, %call %mul3 = fmul double %mul, %sub %2 = load double, double* undef, align 4 %mul5 = fmul double %2, %call1 Index: test/CodeGen/ARM/2012-01-23-PostRA-LICM.ll =================================================================== --- test/CodeGen/ARM/2012-01-23-PostRA-LICM.ll +++ test/CodeGen/ARM/2012-01-23-PostRA-LICM.ll @@ -22,7 +22,7 @@ %tmp6 = and <4 x i32> %tmp5, %tmp7 = or <4 x i32> %tmp6, %tmp8 = bitcast <4 x i32> %tmp7 to <4 x float> - %tmp9 = fsub <4 x float> %tmp8, bitcast (i128 or (i128 shl (i128 zext (i64 trunc (i128 lshr (i128 bitcast (<4 x float> to i128), i128 64) to i64) to i128), i128 64), i128 zext (i64 trunc (i128 bitcast (<4 x float> to i128) to i64) to i128)) to <4 x float>) + %tmp9 = fsub <4 x float> %tmp8, bitcast (i128 or (i128 shl (i128 zext (i64 trunc (i128 lshr (i128 bitcast (<4 x float> to i128), i128 64) to i64) to i128), i128 64), i128 zext (i64 trunc (i128 bitcast (<4 x float> to i128) to i64) to i128)) to <4 x float>) %tmp10 = fmul <4 x float> undef, %tmp9 %tmp11 = fadd <4 x float> undef, %tmp10 %tmp12 = bitcast <4 x float> zeroinitializer to i128 @@ -47,7 +47,7 @@ %tmp30 = and <4 x i32> %tmp29, %tmp31 = or <4 x i32> %tmp30, %tmp32 = bitcast <4 x i32> %tmp31 to <4 x float> - %tmp33 = fsub <4 x float> %tmp32, bitcast (i128 or (i128 shl (i128 zext (i64 trunc (i128 lshr (i128 bitcast (<4 x float> to i128), i128 64) to i64) to i128), i128 64), i128 zext (i64 trunc (i128 bitcast (<4 x float> to i128) to i64) to i128)) to <4 x float>) + %tmp33 = fsub <4 x float> %tmp32, bitcast (i128 or (i128 shl (i128 zext (i64 trunc (i128 lshr (i128 bitcast (<4 x float> to i128), i128 64) to i64) to i128), i128 64), i128 zext (i64 trunc (i128 bitcast (<4 x float> to i128) to i64) to i128)) to <4 x float>) %tmp34 = call <4 x float> @llvm.arm.neon.vrecps.v4f32(<4 x float> undef, <4 x float> %tmp28) nounwind %tmp35 = fmul <4 x float> %tmp34, undef %tmp36 = fmul <4 x float> %tmp35, undef @@ -69,11 +69,11 @@ %tmp52 = call arm_aapcs_vfpcc float* null(i8* undef) nounwind %tmp54 = load float, float* %tmp52, align 4 %tmp55 = insertelement <4 x float> undef, float %tmp54, i32 3 - %tmp56 = fsub <4 x float> , %tmp22 + %tmp56 = fsub <4 x float> , %tmp22 %tmp57 = call <4 x float> @llvm.arm.neon.vmins.v4f32(<4 x float> %tmp56, <4 x float> %tmp55) nounwind %tmp58 = fmul <4 x float> undef, %tmp57 %tmp59 = fsub <4 x float> %tmp51, %tmp48 - %tmp60 = fsub <4 x float> , %tmp58 + %tmp60 = fsub <4 x float> , %tmp58 %tmp61 = fmul <4 x float> %tmp59, %tmp60 %tmp62 = fadd <4 x float> %tmp48, %tmp61 call arm_aapcs_vfpcc void @baz(i8* undef, i8* undef, [2 x i64] %tmp26, <4 x i32>* undef) Index: test/CodeGen/ARM/2012-01-24-RegSequenceLiveRange.ll =================================================================== --- test/CodeGen/ARM/2012-01-24-RegSequenceLiveRange.ll +++ test/CodeGen/ARM/2012-01-24-RegSequenceLiveRange.ll @@ -10,13 +10,13 @@ %tmp = load <2 x float>, <2 x float>* undef, align 8 %tmp2 = extractelement <2 x float> %tmp, i32 0 %tmp3 = insertelement <4 x float> undef, float %tmp2, i32 0 - %tmp4 = insertelement <4 x float> %tmp3, float 0.000000e+00, i32 1 - %tmp5 = insertelement <4 x float> %tmp4, float 0.000000e+00, i32 2 - %tmp6 = insertelement <4 x float> %tmp5, float 0.000000e+00, i32 3 + %tmp4 = insertelement <4 x float> %tmp3, float 0.0e+00, i32 1 + %tmp5 = insertelement <4 x float> %tmp4, float 0.0e+00, i32 2 + %tmp6 = insertelement <4 x float> %tmp5, float 0.0e+00, i32 3 %tmp7 = extractelement <2 x float> %tmp, i32 1 %tmp8 = insertelement <4 x float> %tmp3, float %tmp7, i32 1 - %tmp9 = insertelement <4 x float> %tmp8, float 0.000000e+00, i32 2 - %tmp10 = insertelement <4 x float> %tmp9, float 0.000000e+00, i32 3 + %tmp9 = insertelement <4 x float> %tmp8, float 0.0e+00, i32 2 + %tmp10 = insertelement <4 x float> %tmp9, float 0.0e+00, i32 3 %tmp11 = bitcast <4 x float> %tmp6 to <2 x i64> %tmp12 = shufflevector <2 x i64> %tmp11, <2 x i64> undef, <1 x i32> zeroinitializer %tmp13 = bitcast <1 x i64> %tmp12 to <2 x float> @@ -25,7 +25,7 @@ %tmp16 = shufflevector <2 x i64> %tmp15, <2 x i64> undef, <1 x i32> zeroinitializer %tmp17 = bitcast <1 x i64> %tmp16 to <2 x float> %tmp18 = extractelement <2 x float> %tmp17, i32 0 - tail call arm_aapcs_vfpcc void @bar(i8* undef, float %tmp18, float undef, float 0.000000e+00) nounwind + tail call arm_aapcs_vfpcc void @bar(i8* undef, float %tmp18, float undef, float 0.0e+00) nounwind %tmp19 = bitcast <4 x float> %tmp10 to <2 x i64> %tmp20 = shufflevector <2 x i64> %tmp19, <2 x i64> undef, <1 x i32> zeroinitializer %tmp21 = bitcast <1 x i64> %tmp20 to <2 x float> @@ -34,7 +34,7 @@ %tmp24 = shufflevector <2 x i64> %tmp23, <2 x i64> undef, <1 x i32> zeroinitializer %tmp25 = bitcast <1 x i64> %tmp24 to <2 x float> %tmp26 = extractelement <2 x float> %tmp25, i32 0 - tail call arm_aapcs_vfpcc void @bar(i8* undef, float undef, float %tmp26, float 0.000000e+00) nounwind + tail call arm_aapcs_vfpcc void @bar(i8* undef, float undef, float %tmp26, float 0.0e+00) nounwind ret void } Index: test/CodeGen/ARM/2012-01-26-CopyPropKills.ll =================================================================== --- test/CodeGen/ARM/2012-01-26-CopyPropKills.ll +++ test/CodeGen/ARM/2012-01-26-CopyPropKills.ll @@ -19,9 +19,9 @@ bb3: ; preds = %bb2 %tmp = or <4 x i32> undef, undef %tmp4 = bitcast <4 x i32> %tmp to <4 x float> - %tmp5 = fsub <4 x float> , %tmp4 + %tmp5 = fsub <4 x float> , %tmp4 %tmp6 = bitcast <4 x i32> zeroinitializer to <4 x float> - %tmp7 = fmul <4 x float> %tmp6, + %tmp7 = fmul <4 x float> %tmp6, %tmp8 = bitcast <4 x float> %tmp7 to <2 x i64> %tmp9 = shufflevector <2 x i64> %tmp8, <2 x i64> undef, <1 x i32> zeroinitializer %tmp10 = bitcast <1 x i64> %tmp9 to <2 x float> @@ -46,8 +46,8 @@ %tmp29 = and <2 x i32> undef, %tmp30 = or <2 x i32> %tmp28, %tmp29 %tmp31 = bitcast <2 x i32> %tmp30 to <1 x i64> - %tmp32 = insertelement <4 x float> %tmp25, float 0.000000e+00, i32 3 - %tmp33 = fmul <4 x float> undef, + %tmp32 = insertelement <4 x float> %tmp25, float 0.0e+00, i32 3 + %tmp33 = fmul <4 x float> undef, %tmp34 = fadd <4 x float> %tmp33, %tmp32 %tmp35 = fmul <4 x float> %tmp33, zeroinitializer %tmp36 = fadd <4 x float> %tmp35, zeroinitializer Index: test/CodeGen/ARM/2012-02-01-CoalescerBug.ll =================================================================== --- test/CodeGen/ARM/2012-02-01-CoalescerBug.ll +++ test/CodeGen/ARM/2012-02-01-CoalescerBug.ll @@ -17,9 +17,9 @@ %8 = insertelement <4 x float> undef, float %5, i32 0 %9 = insertelement <4 x float> %8, float %6, i32 1 %10 = insertelement <4 x float> %9, float %7, i32 2 - %11 = insertelement <4 x float> %10, float 0.000000e+00, i32 3 + %11 = insertelement <4 x float> %10, float 0.0e+00, i32 3 store <4 x float> %11, <4 x float>* undef, align 16 - call arm_aapcs_vfpcc void @baz(%1* undef, float 0.000000e+00) nounwind + call arm_aapcs_vfpcc void @baz(%1* undef, float 0.0e+00) nounwind ret void } Index: test/CodeGen/ARM/2012-04-02-TwoAddrInstrCrash.ll =================================================================== --- test/CodeGen/ARM/2012-04-02-TwoAddrInstrCrash.ll +++ test/CodeGen/ARM/2012-04-02-TwoAddrInstrCrash.ll @@ -12,7 +12,7 @@ store <4 x float> zeroinitializer, <4 x float>* undef, align 16 store <4 x float> zeroinitializer, <4 x float>* undef, align 16 store <4 x float> %3, <4 x float>* undef, align 16 - %4 = insertelement <4 x float> %3, float 8.000000e+00, i32 2 + %4 = insertelement <4 x float> %3, float 8.0e+00, i32 2 store <4 x float> %4, <4 x float>* undef, align 16 unreachable Index: test/CodeGen/ARM/2012-04-10-DAGCombine.ll =================================================================== --- test/CodeGen/ARM/2012-04-10-DAGCombine.ll +++ test/CodeGen/ARM/2012-04-10-DAGCombine.ll @@ -8,13 +8,13 @@ br i1 undef, label %bb18, label %bb5 bb5: ; preds = %bb4 - %tmp6 = fadd float %tmp, -1.500000e+01 - %tmp7 = fdiv float %tmp6, 2.000000e+01 - %tmp8 = fadd float %tmp7, 1.000000e+00 - %tmp9 = fdiv float 1.000000e+00, %tmp8 - %tmp10 = fsub float 1.000000e+00, %tmp9 - %tmp11 = fmul float %tmp10, 1.000000e+01 - %tmp12 = fadd float %tmp11, 1.500000e+01 + %tmp6 = fadd float %tmp, -1.5e+01 + %tmp7 = fdiv float %tmp6, 2.0e+01 + %tmp8 = fadd float %tmp7, 1.0e+00 + %tmp9 = fdiv float 1.0e+00, %tmp8 + %tmp10 = fsub float 1.0e+00, %tmp9 + %tmp11 = fmul float %tmp10, 1.0e+01 + %tmp12 = fadd float %tmp11, 1.5e+01 %tmp13 = fdiv float %tmp12, %tmp %tmp14 = insertelement <2 x float> undef, float %tmp13, i32 0 %tmp15 = shufflevector <2 x float> %tmp14, <2 x float> undef, <4 x i32> zeroinitializer Index: test/CodeGen/ARM/2012-08-04-DtripleSpillReload.ll =================================================================== --- test/CodeGen/ARM/2012-08-04-DtripleSpillReload.ll +++ test/CodeGen/ARM/2012-08-04-DtripleSpillReload.ll @@ -139,15 +139,15 @@ %55 = bitcast <1 x i64> %54 to <2 x float> %56 = extractelement <2 x float> %55, i32 0 %57 = insertelement <4 x float> undef, float %56, i32 2 - %58 = insertelement <4 x float> %57, float 1.000000e+00, i32 3 + %58 = insertelement <4 x float> %57, float 1.0e+00, i32 3 %59 = fsub <4 x float> %47, %58 %60 = fmul <4 x float> undef, undef %61 = fmul <4 x float> %59, %60 - %62 = fmul <4 x float> %61, + %62 = fmul <4 x float> %61, %63 = fadd <4 x float> %47, %62 store <4 x float> %46, <4 x float>* undef, align 8 - call arm_aapcs_vfpcc void @bar(%0* undef, float 0.000000e+00) nounwind - call arm_aapcs_vfpcc void @bar(%0* undef, float 0.000000e+00) nounwind + call arm_aapcs_vfpcc void @bar(%0* undef, float 0.0e+00) nounwind + call arm_aapcs_vfpcc void @bar(%0* undef, float 0.0e+00) nounwind store <4 x float> %63, <4 x float>* undef, align 8 unreachable Index: test/CodeGen/ARM/a15-SD-dep.ll =================================================================== --- test/CodeGen/ARM/a15-SD-dep.ll +++ test/CodeGen/ARM/a15-SD-dep.ll @@ -75,7 +75,7 @@ ] sw.bb: ; preds = %entry - %2 = insertelement <4 x float> %1, float 0.000000e+00, i32 0 + %2 = insertelement <4 x float> %1, float 0.0e+00, i32 0 br label %sw.bb6 sw.bb6: ; preds = %sw.bb, %entry @@ -102,7 +102,7 @@ ] sw.bb: ; preds = %entry - %1 = insertelement <4 x float> %0, float 0.000000e+00, i32 0 + %1 = insertelement <4 x float> %0, float 0.0e+00, i32 0 br label %sw.bb1 sw.bb1: ; preds = %entry, %sw.bb Index: test/CodeGen/ARM/apcs-vfp.ll =================================================================== --- test/CodeGen/ARM/apcs-vfp.ll +++ test/CodeGen/ARM/apcs-vfp.ll @@ -121,7 +121,7 @@ ; CHECK: vstr %add = fadd double %a, %b %sub = fsub double %a, %b - %call = tail call arm_aapcs_vfpcc double @x(double 0.000000e+00, double 0.000000e+00, double 0.000000e+00, double 0.000000e+00, double 0.000000e+00, double 0.000000e+00, double %add, float 0.000000e+00, double %sub) + %call = tail call arm_aapcs_vfpcc double @x(double 0.0e+00, double 0.0e+00, double 0.0e+00, double 0.0e+00, double 0.0e+00, double 0.0e+00, double %add, float 0.0e+00, double %sub) ret double %call } Index: test/CodeGen/ARM/arguments.ll =================================================================== --- test/CodeGen/ARM/arguments.ll +++ test/CodeGen/ARM/arguments.ll @@ -18,7 +18,7 @@ ; DARWIN-LABEL: f2: ; DARWIN: mov r3, #128 entry: - %0 = tail call i32 (i32, ...) @g2(i32 5, double 1.600000e+01, i32 128) nounwind optsize ; [#uses=1] + %0 = tail call i32 (i32, ...) @g2(i32 5, double 1.6e+01, i32 128) nounwind optsize ; [#uses=1] %not. = icmp ne i32 %0, 128 ; [#uses=1] %.0 = zext i1 %not. to i32 ; [#uses=1] ret i32 %.0 Index: test/CodeGen/ARM/arm-shrink-wrapping.ll =================================================================== --- test/CodeGen/ARM/arm-shrink-wrapping.ll +++ test/CodeGen/ARM/arm-shrink-wrapping.ll @@ -658,8 +658,8 @@ br i1 %or.cond, label %bb3, label %bb13 bb3: ; preds = %bb - %tmp4 = fcmp ogt float %gamma, 1.000000e+00 - %tmp5 = fadd double 1.000000e+00, %tmp + %tmp4 = fcmp ogt float %gamma, 1.0e+00 + %tmp5 = fadd double 1.0e+00, %tmp %tmp6 = select i1 %tmp4, double %tmp5, double %tmp %tmp10 = tail call double @llvm.pow.f64(double %tmp, double %tmp) %tmp11 = fcmp une double %tmp6, %tmp @@ -669,7 +669,7 @@ br label %bb13 bb13: ; preds = %bb3, %bb - %cutoff.1 = phi float [ 0.000000e+00, %bb ], [ %phitmp, %bb3 ] + %cutoff.1 = phi float [ 0.0e+00, %bb ], [ %phitmp, %bb3 ] ret float %cutoff.1 } Index: test/CodeGen/ARM/avoid-cpsr-rmw.ll =================================================================== --- test/CodeGen/ARM/avoid-cpsr-rmw.ll +++ test/CodeGen/ARM/avoid-cpsr-rmw.ll @@ -93,7 +93,7 @@ ; CHECK: if.then ; CHECK-NOT: movs %0 = load double, double* %q, align 4 - %cmp = fcmp olt double %0, 1.000000e+01 + %cmp = fcmp olt double %0, 1.0e+01 %incdec.ptr1 = getelementptr inbounds i32, i32* %p, i32 1 br i1 %cmp, label %if.then, label %if.else Index: test/CodeGen/ARM/coalesce-subregs.ll =================================================================== --- test/CodeGen/ARM/coalesce-subregs.ll +++ test/CodeGen/ARM/coalesce-subregs.ll @@ -159,7 +159,7 @@ %vecext1 = extractelement <4 x float> %vld1, i32 1 %vecext2 = extractelement <4 x float> %vld1, i32 2 %vecext3 = extractelement <4 x float> %vld1, i32 3 - %add = fadd float %vecext3, 1.000000e+00 + %add = fadd float %vecext3, 1.0e+00 %tobool = icmp eq float* %q, null br i1 %tobool, label %if.end, label %if.then @@ -227,7 +227,7 @@ %tmp6 = bitcast <4 x float> %tmp5 to <2 x i64> %tmp7 = shufflevector <2 x i64> %tmp6, <2 x i64> undef, <1 x i32> zeroinitializer %tmp8 = bitcast <1 x i64> %tmp7 to <2 x float> - %tmp9 = tail call <2 x float> @baz(<2 x float> , <2 x float> %tmp8, <2 x float> zeroinitializer) nounwind + %tmp9 = tail call <2 x float> @baz(<2 x float> , <2 x float> %tmp8, <2 x float> zeroinitializer) nounwind br i1 undef, label %bb10, label %bb12 bb10: ; preds = %bb3 @@ -250,7 +250,7 @@ %tmp25 = shufflevector <2 x i64> %tmp24, <2 x i64> undef, <1 x i32> zeroinitializer %tmp26 = bitcast <1 x i64> %tmp25 to <2 x float> %tmp27 = extractelement <2 x float> %tmp26, i32 0 - %tmp28 = fcmp olt float %tmp27, 0.000000e+00 + %tmp28 = fcmp olt float %tmp27, 0.0e+00 %tmp29 = select i1 %tmp28, i32 0, i32 undef %tmp30 = icmp ult i32 undef, %arg2 br i1 %tmp30, label %bb3, label %bb31 Index: test/CodeGen/ARM/constants.ll =================================================================== --- test/CodeGen/ARM/constants.ll +++ test/CodeGen/ARM/constants.ll @@ -58,9 +58,9 @@ %t1 = type { <3 x float>, <3 x float> } @const1 = global %t1 { <3 x float> zeroinitializer, - <3 x float> }, align 16 + <3 x float> }, align 16 ; CHECK: const1 ; CHECK: .zero 16 ; CHECK: float 1 Index: test/CodeGen/ARM/crash-greedy.ll =================================================================== --- test/CodeGen/ARM/crash-greedy.ll +++ test/CodeGen/ARM/crash-greedy.ll @@ -10,17 +10,17 @@ define void @remat_subreg(float* nocapture %x, i32* %y, i32 %n, i32 %z, float %c, float %lambda, float* nocapture %ret_f, float* nocapture %ret_df) nounwind { entry: %conv16 = fpext float %lambda to double - %mul17 = fmul double %conv16, -1.000000e+00 + %mul17 = fmul double %conv16, -1.0e+00 br i1 undef, label %cond.end.us, label %cond.end cond.end.us: ; preds = %entry unreachable cond.end: ; preds = %cond.end, %entry - %mul = fmul double undef, 0.000000e+00 + %mul = fmul double undef, 0.0e+00 %add = fadd double undef, %mul %add46 = fadd double undef, undef - %add75 = fadd double 0.000000e+00, undef + %add75 = fadd double 0.0e+00, undef br i1 undef, label %for.end, label %cond.end for.end: ; preds = %cond.end @@ -29,7 +29,7 @@ %mul84 = fmul double %mul17, %conv83 %call85 = tail call double @exp(double %mul84) nounwind %mul86 = fmul double %conv78, %call85 - %add88 = fadd double 0.000000e+00, %mul86 + %add88 = fadd double 0.0e+00, %mul86 ; CHECK: blx _exp %call100 = tail call double @exp(double %mul84) nounwind %mul101 = fmul double undef, %call100 @@ -37,7 +37,7 @@ %mul111 = fmul double undef, %conv83 %mul119 = fmul double %mul111, undef %add121 = fadd double undef, %mul119 - %div = fdiv double 1.000000e+00, %conv16 + %div = fdiv double 1.0e+00, %conv16 %div126 = fdiv double %add, %add75 %sub = fsub double %div, %div126 %div129 = fdiv double %add103, %add88 @@ -52,7 +52,7 @@ ; CHECK: vldr %mul146 = fmul float %lambda, %lambda %conv147 = fpext float %mul146 to double - %div148 = fdiv double 1.000000e+00, %conv147 + %div148 = fdiv double 1.0e+00, %conv147 %sub149 = fsub double %sub143, %div148 %conv150 = fptrunc double %sub149 to float store float %conv150, float* %ret_df, align 4 @@ -71,10 +71,10 @@ br i1 undef, label %if.end251, label %if.then195 if.then195: ; preds = %if.then84 - %div = fdiv float 1.000000e+00, undef + %div = fdiv float 1.0e+00, undef %vecinit207 = insertelement <4 x float> undef, float %div, i32 1 - %vecinit208 = insertelement <4 x float> %vecinit207, float 1.000000e+00, i32 2 - %vecinit209 = insertelement <4 x float> %vecinit208, float 1.000000e+00, i32 3 + %vecinit208 = insertelement <4 x float> %vecinit207, float 1.0e+00, i32 2 + %vecinit209 = insertelement <4 x float> %vecinit208, float 1.0e+00, i32 3 %mul216 = fmul <4 x float> zeroinitializer, %vecinit209 store <4 x float> %mul216, <4 x float>* undef, align 16 br label %if.end251 Index: test/CodeGen/ARM/cse-libcalls.ll =================================================================== --- test/CodeGen/ARM/cse-libcalls.ll +++ test/CodeGen/ARM/cse-libcalls.ll @@ -11,8 +11,8 @@ define double @u_f_nonbon(double %lambda) nounwind { entry: %tmp19.i.i = load double, double* null, align 4 ; [#uses=2] - %tmp6.i = fcmp olt double %tmp19.i.i, 1.000000e+00 ; [#uses=1] - %dielectric.0.i = select i1 %tmp6.i, double 1.000000e+00, double %tmp19.i.i ; [#uses=1] + %tmp6.i = fcmp olt double %tmp19.i.i, 1.0e+00 ; [#uses=1] + %dielectric.0.i = select i1 %tmp6.i, double 1.0e+00, double %tmp19.i.i ; [#uses=1] %tmp10.i4 = fdiv double 0x4074C2D71F36262D, %dielectric.0.i ; [#uses=1] br i1 false, label %bb28.i, label %bb508.i @@ -20,7 +20,7 @@ br i1 false, label %bb502.loopexit.i, label %bb28.i bb.nph53.i: ; preds = %bb502.loopexit.i - %tmp354.i = fsub double -0.000000e+00, %tmp10.i4 ; [#uses=0] + %tmp354.i = fsub double -0.0e+00, %tmp10.i4 ; [#uses=0] br label %bb244.i bb244.i: ; preds = %bb244.i, %bb.nph53.i Index: test/CodeGen/ARM/debug-info-branch-folding.ll =================================================================== --- test/CodeGen/ARM/debug-info-branch-folding.ll +++ test/CodeGen/ARM/debug-info-branch-folding.ll @@ -19,9 +19,9 @@ br label %for.body9 for.body9: ; preds = %for.body9, %entry - %add19 = fadd <4 x float> undef, , !dbg !39 + %add19 = fadd <4 x float> undef, , !dbg !39 tail call void @llvm.dbg.value(metadata <4 x float> %add19, i64 0, metadata !27, metadata !DIExpression()), !dbg !39 - %add20 = fadd <4 x float> undef, , !dbg !39 + %add20 = fadd <4 x float> undef, , !dbg !39 tail call void @llvm.dbg.value(metadata <4 x float> %add20, i64 0, metadata !28, metadata !DIExpression()), !dbg !39 br i1 %cond, label %for.end54, label %for.body9, !dbg !44 Index: test/CodeGen/ARM/debug-info-qreg.ll =================================================================== --- test/CodeGen/ARM/debug-info-qreg.ll +++ test/CodeGen/ARM/debug-info-qreg.ll @@ -20,7 +20,7 @@ br label %for.body9 for.body9: ; preds = %for.body9, %entry - %add19 = fadd <4 x float> undef, , !dbg !39 + %add19 = fadd <4 x float> undef, , !dbg !39 br i1 undef, label %for.end54, label %for.body9, !dbg !44 for.end54: ; preds = %for.body9 Index: test/CodeGen/ARM/debug-info-sreg2.ll =================================================================== --- test/CodeGen/ARM/debug-info-sreg2.ll +++ test/CodeGen/ARM/debug-info-sreg2.ll @@ -23,7 +23,7 @@ for.body: ; preds = %entry, %for.body %k.08 = phi float [ %inc, %for.body ], [ %call, %entry ] %call4 = tail call float @_Z2f3f(float %k.08) optsize, !dbg !13 - %inc = fadd float %k.08, 1.000000e+00, !dbg !14 + %inc = fadd float %k.08, 1.0e+00, !dbg !14 %call1 = tail call float @_Z2f2v() optsize, !dbg !12 %cmp = fcmp olt float %inc, %call1, !dbg !12 br i1 %cmp, label %for.body, label %for.end, !dbg !12 Index: test/CodeGen/ARM/fast-isel-align.ll =================================================================== --- test/CodeGen/ARM/fast-isel-align.ll +++ test/CodeGen/ARM/fast-isel-align.ll @@ -69,7 +69,7 @@ %1 = load %class.TAlignTest*, %class.TAlignTest** %0 %2 = getelementptr inbounds %class.TAlignTest, %class.TAlignTest* %1, i32 0, i32 1 %3 = load float, float* %2, align 1 - %4 = fcmp une float %3, 0.000000e+00 + %4 = fcmp une float %3, 0.0e+00 ; ARM: ldr r[[R:[0-9]+]], [r0, #2] ; ARM: vmov s0, r[[R]] ; ARM: vcmpe.f32 s0, #0 Index: test/CodeGen/ARM/fast-isel-cmp-imm.ll =================================================================== --- test/CodeGen/ARM/fast-isel-cmp-imm.ll +++ test/CodeGen/ARM/fast-isel-cmp-imm.ll @@ -6,7 +6,7 @@ entry: ; ARM: t1a ; THUMB: t1a - %cmp = fcmp oeq float %a, 0.000000e+00 + %cmp = fcmp oeq float %a, 0.0e+00 ; ARM: vcmpe.f32 s{{[0-9]+}}, #0 ; THUMB: vcmpe.f32 s{{[0-9]+}}, #0 br i1 %cmp, label %if.then, label %if.end @@ -26,7 +26,7 @@ entry: ; ARM: t1b ; THUMB: t1b - %cmp = fcmp oeq float %a, -0.000000e+00 + %cmp = fcmp oeq float %a, -0.0e+00 ; ARM: vldr ; ARM: vcmpe.f32 s{{[0-9]+}}, s{{[0-9]+}} ; THUMB: vldr @@ -45,7 +45,7 @@ entry: ; ARM: t2a ; THUMB: t2a - %cmp = fcmp oeq double %a, 0.000000e+00 + %cmp = fcmp oeq double %a, 0.0e+00 ; ARM: vcmpe.f64 d{{[0-9]+}}, #0 ; THUMB: vcmpe.f64 d{{[0-9]+}}, #0 br i1 %cmp, label %if.then, label %if.end @@ -63,7 +63,7 @@ entry: ; ARM: t2b ; THUMB: t2b - %cmp = fcmp oeq double %a, -0.000000e+00 + %cmp = fcmp oeq double %a, -0.0e+00 ; ARM: vldr ; ARM: vcmpe.f64 d{{[0-9]+}}, d{{[0-9]+}} ; THUMB: vldr Index: test/CodeGen/ARM/fast-isel-deadcode.ll =================================================================== --- test/CodeGen/ARM/fast-isel-deadcode.ll +++ test/CodeGen/ARM/fast-isel-deadcode.ll @@ -6,7 +6,7 @@ define i32 @main(i32 %argc, i8** %argv) nounwind { entry: ; THUMB: main - call void @printArgsNoRet(i32 1, float 0x4000CCCCC0000000, i8 signext 99, double 4.100000e+00) + call void @printArgsNoRet(i32 1, float 0x4000CCCCC0000000, i8 signext 99, double 4.1e+00) ; THUMB: blx _printArgsNoRet ; THUMB-NOT: ldr ; THUMB-NOT: vldr Index: test/CodeGen/ARM/fast-isel-static.ll =================================================================== --- test/CodeGen/ARM/fast-isel-static.ll +++ test/CodeGen/ARM/fast-isel-static.ll @@ -23,8 +23,8 @@ entry: %ztot = alloca float, align 4 %z = alloca float, align 4 - store float 0.000000e+00, float* %ztot, align 4 - store float 1.000000e+00, float* %z, align 4 + store float 0.0e+00, float* %ztot, align 4 + store float 1.0e+00, float* %z, align 4 ; CHECK-LONG: blx r ; CHECK-NORM: bl {{_?}}myadd call void @myadd(float* %ztot, float* %z) Index: test/CodeGen/ARM/fastcc-vfp.ll =================================================================== --- test/CodeGen/ARM/fastcc-vfp.ll +++ test/CodeGen/ARM/fastcc-vfp.ll @@ -33,7 +33,7 @@ ; CHECK: vstr %add = fadd double %a, %b %sub = fsub double %a, %b - %call = tail call fastcc double @x(double 0.000000e+00, double 0.000000e+00, double 0.000000e+00, double 0.000000e+00, double 0.000000e+00, double 0.000000e+00, double %add, float 0.000000e+00, double %sub) #2 + %call = tail call fastcc double @x(double 0.0e+00, double 0.0e+00, double 0.0e+00, double 0.0e+00, double 0.0e+00, double 0.0e+00, double %add, float 0.0e+00, double %sub) #2 ret double %call } Index: test/CodeGen/ARM/fcopysign.ll =================================================================== --- test/CodeGen/ARM/fcopysign.ll +++ test/CodeGen/ARM/fcopysign.ll @@ -50,7 +50,7 @@ ; SOFT: vbsl [[REG6]], [[REG7]], %0 = tail call double (...) @bar() nounwind %1 = fptrunc double %0 to float - %2 = tail call float @copysignf(float 5.000000e-01, float %1) nounwind readnone + %2 = tail call float @copysignf(float 5.0e-01, float %1) nounwind readnone %3 = fadd float %1, %2 ret float %3 } Index: test/CodeGen/ARM/fnegs.ll =================================================================== --- test/CodeGen/ARM/fnegs.ll +++ test/CodeGen/ARM/fnegs.ll @@ -22,9 +22,9 @@ define float @test1(float* %a) { entry: %0 = load float, float* %a, align 4 ; [#uses=2] - %1 = fsub float -0.000000e+00, %0 ; [#uses=2] + %1 = fsub float -0.0e+00, %0 ; [#uses=2] %2 = fpext float %1 to double ; [#uses=1] - %3 = fcmp olt double %2, 1.234000e+00 ; [#uses=1] + %3 = fcmp olt double %2, 1.234e+00 ; [#uses=1] %retval = select i1 %3, float %1, float %0 ; [#uses=1] ret float %retval } @@ -49,9 +49,9 @@ define float @test2(float* %a) { entry: %0 = load float, float* %a, align 4 ; [#uses=2] - %1 = fmul float -1.000000e+00, %0 ; [#uses=2] + %1 = fmul float -1.0e+00, %0 ; [#uses=2] %2 = fpext float %1 to double ; [#uses=1] - %3 = fcmp olt double %2, 1.234000e+00 ; [#uses=1] + %3 = fcmp olt double %2, 1.234e+00 ; [#uses=1] %retval = select i1 %3, float %1, float %0 ; [#uses=1] ret float %retval } Index: test/CodeGen/ARM/fnmul.ll =================================================================== --- test/CodeGen/ARM/fnmul.ll +++ test/CodeGen/ARM/fnmul.ll @@ -7,7 +7,7 @@ define double @t1(double %a, double %b) { entry: - %tmp2 = fsub double -0.000000e+00, %a ; [#uses=1] + %tmp2 = fsub double -0.0e+00, %a ; [#uses=1] %tmp4 = fmul double %tmp2, %b ; [#uses=1] ret double %tmp4 } Index: test/CodeGen/ARM/fold-stack-adjust.ll =================================================================== --- test/CodeGen/ARM/fold-stack-adjust.ll +++ test/CodeGen/ARM/fold-stack-adjust.ll @@ -205,7 +205,7 @@ ; CHECK-LINUX: add sp ; CHECK-LINUX: vpop {d8} %run = alloca %"MyClass", align 4 - %call = call %"MyClass"* @bar2(%"MyClass"* %run, i16* %chars, i32 %length, float 0.000000e+00, float 0.000000e+00, i32 1, i32 1, i1 zeroext false, i1 zeroext true, i32 3) + %call = call %"MyClass"* @bar2(%"MyClass"* %run, i16* %chars, i32 %length, float 0.0e+00, float 0.0e+00, i32 1, i32 1, i1 zeroext false, i1 zeroext true, i32 3) %call1 = call float @foo() %cmp = icmp eq %"MyClass"* %run, null br i1 %cmp, label %exit, label %if.then Index: test/CodeGen/ARM/fp.ll =================================================================== --- test/CodeGen/ARM/fp.ll +++ test/CodeGen/ARM/fp.ll @@ -53,7 +53,7 @@ ;CHECK-LABEL: h2: ;CHECK: mov r0, #1065353216 entry: - ret float 1.000000e+00 + ret float 1.0e+00 } define double @f2(double %a) { Index: test/CodeGen/ARM/fparith.ll =================================================================== --- test/CodeGen/ARM/fparith.ll +++ test/CodeGen/ARM/fparith.ll @@ -52,7 +52,7 @@ ;CHECK-LABEL: f7: ;CHECK: eor entry: - %tmp1 = fsub float -0.000000e+00, %a ; [#uses=1] + %tmp1 = fsub float -0.0e+00, %a ; [#uses=1] ret float %tmp1 } @@ -60,7 +60,7 @@ ;CHECK-LABEL: f8: ;CHECK: vneg.f64 entry: - %tmp1 = fsub double -0.000000e+00, %a ; [#uses=1] + %tmp1 = fsub double -0.0e+00, %a ; [#uses=1] ret double %tmp1 } Index: test/CodeGen/ARM/fpcmp-f64-neon-opt.ll =================================================================== --- test/CodeGen/ARM/fpcmp-f64-neon-opt.ll +++ test/CodeGen/ARM/fpcmp-f64-neon-opt.ll @@ -6,7 +6,7 @@ ; CHECK-LABEL: no-intermediate-register-for-zero-imm ; CHECK-NOT: vmov ; CHECK: vcmp - %cmp = fcmp une double %x, 0.000000e+00 + %cmp = fcmp une double %x, 0.0e+00 %conv = zext i1 %cmp to i32 ret i32 %conv } Index: test/CodeGen/ARM/fpcmp-opt.ll =================================================================== --- test/CodeGen/ARM/fpcmp-opt.ll +++ test/CodeGen/ARM/fpcmp-opt.ll @@ -42,7 +42,7 @@ ; CHECK-NOT: vmrs ; CHECK: bne %0 = load double, double* %a - %1 = fcmp oeq double %0, 0.000000e+00 + %1 = fcmp oeq double %0, 0.0e+00 br i1 %1, label %bb1, label %bb2 bb1: @@ -65,7 +65,7 @@ ; CHECK-NOT: vmrs ; CHECK: bne %0 = load float, float* %a - %1 = fcmp oeq float %0, 0.000000e+00 + %1 = fcmp oeq float %0, 0.0e+00 br i1 %1, label %bb1, label %bb2 bb1: Index: test/CodeGen/ARM/fpcmp.ll =================================================================== --- test/CodeGen/ARM/fpcmp.ll +++ test/CodeGen/ARM/fpcmp.ll @@ -5,7 +5,7 @@ ;CHECK: vcmpe.f32 ;CHECK: movmi entry: - %tmp = fcmp olt float %a, 1.000000e+00 ; [#uses=1] + %tmp = fcmp olt float %a, 1.0e+00 ; [#uses=1] %tmp1 = zext i1 %tmp to i32 ; [#uses=1] ret i32 %tmp1 } @@ -15,7 +15,7 @@ ;CHECK: vcmpe.f32 ;CHECK: moveq entry: - %tmp = fcmp oeq float %a, 1.000000e+00 ; [#uses=1] + %tmp = fcmp oeq float %a, 1.0e+00 ; [#uses=1] %tmp2 = zext i1 %tmp to i32 ; [#uses=1] ret i32 %tmp2 } @@ -25,7 +25,7 @@ ;CHECK: vcmpe.f32 ;CHECK: movgt entry: - %tmp = fcmp ogt float %a, 1.000000e+00 ; [#uses=1] + %tmp = fcmp ogt float %a, 1.0e+00 ; [#uses=1] %tmp3 = zext i1 %tmp to i32 ; [#uses=1] ret i32 %tmp3 } @@ -35,7 +35,7 @@ ;CHECK: vcmpe.f32 ;CHECK: movge entry: - %tmp = fcmp oge float %a, 1.000000e+00 ; [#uses=1] + %tmp = fcmp oge float %a, 1.0e+00 ; [#uses=1] %tmp4 = zext i1 %tmp to i32 ; [#uses=1] ret i32 %tmp4 } @@ -45,7 +45,7 @@ ;CHECK: vcmpe.f32 ;CHECK: movls entry: - %tmp = fcmp ole float %a, 1.000000e+00 ; [#uses=1] + %tmp = fcmp ole float %a, 1.0e+00 ; [#uses=1] %tmp5 = zext i1 %tmp to i32 ; [#uses=1] ret i32 %tmp5 } @@ -55,7 +55,7 @@ ;CHECK: vcmpe.f32 ;CHECK: movne entry: - %tmp = fcmp une float %a, 1.000000e+00 ; [#uses=1] + %tmp = fcmp une float %a, 1.0e+00 ; [#uses=1] %tmp6 = zext i1 %tmp to i32 ; [#uses=1] ret i32 %tmp6 } @@ -65,7 +65,7 @@ ;CHECK: vcmpe.f64 ;CHECK: movmi entry: - %tmp = fcmp olt double %a, 1.000000e+00 ; [#uses=1] + %tmp = fcmp olt double %a, 1.0e+00 ; [#uses=1] %tmp7 = zext i1 %tmp to i32 ; [#uses=1] ret i32 %tmp7 } Index: test/CodeGen/ARM/fpconsts.ll =================================================================== --- test/CodeGen/ARM/fpconsts.ll +++ test/CodeGen/ARM/fpconsts.ll @@ -3,31 +3,31 @@ define float @t1(float %x) nounwind readnone optsize { entry: ; CHECK-LABEL: t1: -; CHECK: vmov.f32 s{{.*}}, #4.000000e+00 - %0 = fadd float %x, 4.000000e+00 +; CHECK: vmov.f32 s{{.*}}, #4.0e+00 + %0 = fadd float %x, 4.0e+00 ret float %0 } define double @t2(double %x) nounwind readnone optsize { entry: ; CHECK-LABEL: t2: -; CHECK: vmov.f64 d{{.*}}, #3.000000e+00 - %0 = fadd double %x, 3.000000e+00 +; CHECK: vmov.f64 d{{.*}}, #3.0e+00 + %0 = fadd double %x, 3.0e+00 ret double %0 } define double @t3(double %x) nounwind readnone optsize { entry: ; CHECK-LABEL: t3: -; CHECK: vmov.f64 d{{.*}}, #-1.300000e+01 - %0 = fmul double %x, -1.300000e+01 +; CHECK: vmov.f64 d{{.*}}, #-1.3e+01 + %0 = fmul double %x, -1.3e+01 ret double %0 } define float @t4(float %x) nounwind readnone optsize { entry: ; CHECK-LABEL: t4: -; CHECK: vmov.f32 s{{.*}}, #-2.400000e+01 - %0 = fmul float %x, -2.400000e+01 +; CHECK: vmov.f32 s{{.*}}, #-2.4e+01 + %0 = fmul float %x, -2.4e+01 ret float %0 } Index: test/CodeGen/ARM/fpmem.ll =================================================================== --- test/CodeGen/ARM/fpmem.ll +++ test/CodeGen/ARM/fpmem.ll @@ -3,7 +3,7 @@ define float @f1(float %a) { ; CHECK-LABEL: f1: ; CHECK: mov r0, #0 - ret float 0.000000e+00 + ret float 0.0e+00 } define float @f2(float* %v, float %u) { Index: test/CodeGen/ARM/fusedMAC.ll =================================================================== --- test/CodeGen/ARM/fusedMAC.ll +++ test/CodeGen/ARM/fusedMAC.ll @@ -200,7 +200,7 @@ define float @test_fma_canonicalize(float %a, float %b) nounwind { ; CHECK: test_fma_canonicalize -; CHECK: vmov.f32 [[R1:s[0-9]+]], #2.000000e+00 +; CHECK: vmov.f32 [[R1:s[0-9]+]], #2.0e+00 ; CHECK: vfma.f32 {{s[0-9]+}}, {{s[0-9]+}}, [[R1]] %ret = call float @llvm.fma.f32(float 2.0, float %a, float %b) ret float %ret Index: test/CodeGen/ARM/ifcvt10.ll =================================================================== --- test/CodeGen/ARM/ifcvt10.ll +++ test/CodeGen/ARM/ifcvt10.ll @@ -15,10 +15,10 @@ br i1 undef, label %if.else, label %if.then if.then: ; preds = %entry - %mul73 = fmul double undef, 0.000000e+00 + %mul73 = fmul double undef, 0.0e+00 %sub76 = fsub double %mul73, undef store double %sub76, double* undef, align 4 - %call88 = tail call double @cos(double 0.000000e+00) nounwind + %call88 = tail call double @cos(double 0.0e+00) nounwind %mul89 = fmul double undef, %call88 %sub92 = fsub double %mul89, undef store double %sub92, double* undef, align 4 @@ -28,7 +28,7 @@ %tmp101 = tail call double @llvm.pow.f64(double undef, double 0x3FD5555555555555) %add112 = fadd double %tmp101, undef %mul118 = fmul double %add112, undef - store double 0.000000e+00, double* %x, align 4 + store double 0.0e+00, double* %x, align 4 ret void } Index: test/CodeGen/ARM/inlineasm3.ll =================================================================== --- test/CodeGen/ARM/inlineasm3.ll +++ test/CodeGen/ARM/inlineasm3.ll @@ -39,13 +39,13 @@ define i32 @t3() nounwind { entry: -tail call void asm sideeffect "flds s15, $0 \0A", "^Uv|m,~{s15}"(float 1.000000e+00) nounwind +tail call void asm sideeffect "flds s15, $0 \0A", "^Uv|m,~{s15}"(float 1.0e+00) nounwind ret i32 0 } ; Radar 9037836 & 9119939 -@k.2126 = internal unnamed_addr global float 1.000000e+00 +@k.2126 = internal unnamed_addr global float 1.0e+00 define i32 @t4() nounwind { entry: call void asm sideeffect "flds s15, $0 \0A", "*^Uv,~{s15}"(float* @k.2126) nounwind Index: test/CodeGen/ARM/isel-v8i32-crash.ll =================================================================== --- test/CodeGen/ARM/isel-v8i32-crash.ll +++ test/CodeGen/ARM/isel-v8i32-crash.ll @@ -1,7 +1,7 @@ ; RUN: llc < %s -mtriple=armv7-linux-gnu | FileCheck %s ; Check we don't crash when trying to combine: -; (d1 = ) (power of 2) +; (d1 = ) (power of 2) ; vmul.f32 d0, d1, d0 ; vcvt.s32.f32 d0, d0 ; into: @@ -16,7 +16,7 @@ entry: %0 = bitcast float* %pf to <8 x float>* %1 = load <8 x float>, <8 x float>* %0, align 4 - %2 = fmul <8 x float> %1, + %2 = fmul <8 x float> %1, %3 = fptosi <8 x float> %2 to <8 x i16> %4 = bitcast i16* %pb to <8 x i16>* store <8 x i16> %3, <8 x i16>* %4, align 2 Index: test/CodeGen/ARM/load_i1_select.ll =================================================================== --- test/CodeGen/ARM/load_i1_select.ll +++ test/CodeGen/ARM/load_i1_select.ll @@ -13,7 +13,7 @@ entry: %tmp2 = load i8, i8* %call %tmp3 = trunc i8 %tmp2 to i1 - %cond = select i1 %tmp3, double 2.000000e+00, double 1.000000e+00 + %cond = select i1 %tmp3, double 2.0e+00, double 1.0e+00 store double %cond, double* %p ret void } Index: test/CodeGen/ARM/log2_not_readnone.ll =================================================================== --- test/CodeGen/ARM/log2_not_readnone.ll +++ test/CodeGen/ARM/log2_not_readnone.ll @@ -8,8 +8,8 @@ define void @f() { ; CHECK: bl log2 - %1 = call double @log2(double 0.000000e+00) + %1 = call double @log2(double 0.0e+00) ; CHECK: bl exp2 - %2 = call double @exp2(double 0.000000e+00) + %2 = call double @exp2(double 0.0e+00) ret void } Index: test/CodeGen/ARM/mult-alt-generic-arm.ll =================================================================== --- test/CodeGen/ARM/mult-alt-generic-arm.ll +++ test/CodeGen/ARM/mult-alt-generic-arm.ll @@ -90,9 +90,9 @@ define arm_aapcscc void @single_E() nounwind { entry: %out0 = alloca double, align 8 - store double 0.000000e+000, double* %out0, align 8 + store double 0.0e+00, double* %out0, align 8 ; No lowering support. -; %0 = call double asm "foo $1,$0", "=r,E"(double 1.000000e+001) nounwind +; %0 = call double asm "foo $1,$0", "=r,E"(double 1.0e+01) nounwind ; store double %0, double* %out0, align 8 ret void } @@ -100,9 +100,9 @@ define arm_aapcscc void @single_F() nounwind { entry: %out0 = alloca double, align 8 - store double 0.000000e+000, double* %out0, align 8 + store double 0.0e+00, double* %out0, align 8 ; No lowering support. -; %0 = call double asm "foo $1,$0", "=r,F"(double 1.000000e+000) nounwind +; %0 = call double asm "foo $1,$0", "=r,F"(double 1.0e+00) nounwind ; store double %0, double* %out0, align 8 ret void } @@ -148,9 +148,9 @@ %3 = call i32 asm "foo $1,$0", "=r,X"(i32* getelementptr inbounds ([2 x i32], [2 x i32]* @marray, i32 0, i32 0)) nounwind store i32 %3, i32* %out0, align 4 ; No lowering support. -; %4 = call i32 asm "foo $1,$0", "=r,X"(double 1.000000e+001) nounwind +; %4 = call i32 asm "foo $1,$0", "=r,X"(double 1.0e+01) nounwind ; store i32 %4, i32* %out0, align 4 -; %5 = call i32 asm "foo $1,$0", "=r,X"(double 1.000000e+000) nounwind +; %5 = call i32 asm "foo $1,$0", "=r,X"(double 1.0e+00) nounwind ; store i32 %5, i32* %out0, align 4 ret void } @@ -248,9 +248,9 @@ define arm_aapcscc void @multi_E() nounwind { entry: %out0 = alloca double, align 8 - store double 0.000000e+000, double* %out0, align 8 + store double 0.0e+00, double* %out0, align 8 ; No lowering support. -; %0 = call double asm "foo $1,$0", "=r|r,r|E"(double 1.000000e+001) nounwind +; %0 = call double asm "foo $1,$0", "=r|r,r|E"(double 1.0e+01) nounwind ; store double %0, double* %out0, align 8 ret void } @@ -258,9 +258,9 @@ define arm_aapcscc void @multi_F() nounwind { entry: %out0 = alloca double, align 8 - store double 0.000000e+000, double* %out0, align 8 + store double 0.0e+00, double* %out0, align 8 ; No lowering support. -; %0 = call double asm "foo $1,$0", "=r|r,r|F"(double 1.000000e+000) nounwind +; %0 = call double asm "foo $1,$0", "=r|r,r|F"(double 1.0e+00) nounwind ; store double %0, double* %out0, align 8 ret void } @@ -306,9 +306,9 @@ %3 = call i32 asm "foo $1,$0", "=r|r,r|X"(i32* getelementptr inbounds ([2 x i32], [2 x i32]* @marray, i32 0, i32 0)) nounwind store i32 %3, i32* %out0, align 4 ; No lowering support. -; %4 = call i32 asm "foo $1,$0", "=r|r,r|X"(double 1.000000e+001) nounwind +; %4 = call i32 asm "foo $1,$0", "=r|r,r|X"(double 1.0e+01) nounwind ; store i32 %4, i32* %out0, align 4 -; %5 = call i32 asm "foo $1,$0", "=r|r,r|X"(double 1.000000e+000) nounwind +; %5 = call i32 asm "foo $1,$0", "=r|r,r|X"(double 1.0e+00) nounwind ; store i32 %5, i32* %out0, align 4 ret void } Index: test/CodeGen/ARM/neon-spfp.ll =================================================================== --- test/CodeGen/ARM/neon-spfp.ll +++ test/CodeGen/ARM/neon-spfp.ll @@ -42,7 +42,7 @@ for.body: ; preds = %for.body, %entry %i.04 = phi i32 [ 0, %entry ], [ %inc, %for.body ] - %q.03 = phi float [ 1.000000e+00, %entry ], [ %mul, %for.body ] + %q.03 = phi float [ 1.0e+00, %entry ], [ %mul, %for.body ] %mul = fmul float %q.03, 0x3FEFAE1480000000 ; CHECK-LINUXA5: vmul.f32 s{{[0-9]*}} ; CHECK-LINUXA8: vmul.f32 s{{[0-9]*}} Index: test/CodeGen/ARM/neon_spill.ll =================================================================== --- test/CodeGen/ARM/neon_spill.ll +++ test/CodeGen/ARM/neon_spill.ll @@ -25,20 +25,20 @@ call void @llvm.arm.neon.vst4.p0i8.v4i32(i8* undef, <4 x i32> , <4 x i32> , <4 x i32> , <4 x i32> , i32 16) nounwind %2 = call arm_aapcs_vfpcc %0** @func2() nounwind %3 = load %0*, %0** %2, align 4 - store float 0.000000e+00, float* undef, align 4 + store float 0.0e+00, float* undef, align 4 %4 = call arm_aapcs_vfpcc %2* @func3(%2* undef, %2* undef, i32 2956) nounwind call arm_aapcs_vfpcc void @func1(%0* %3, float* undef, float* undef, %2* undef) %5 = call arm_aapcs_vfpcc %0** @func2() nounwind - store float 1.000000e+00, float* undef, align 4 + store float 1.0e+00, float* undef, align 4 call arm_aapcs_vfpcc void @func1(%0* undef, float* undef, float* undef, %2* undef) - store float 1.500000e+01, float* undef, align 4 + store float 1.5e+01, float* undef, align 4 %6 = call arm_aapcs_vfpcc %2** @func4() nounwind %7 = call arm_aapcs_vfpcc %2* @func3(%2* undef, %2* undef, i32 2971) nounwind - %8 = fadd float undef, -1.000000e+05 + %8 = fadd float undef, -1.0e+05 store float %8, float* undef, align 16 %9 = call arm_aapcs_vfpcc i32 @rand() nounwind - %10 = fmul float undef, 2.000000e+05 - %11 = fadd float %10, -1.000000e+05 + %10 = fmul float undef, 2.0e+05 + %11 = fadd float %10, -1.0e+05 store float %11, float* undef, align 4 call void @llvm.arm.neon.vst4.p0i8.v4i32(i8* undef, <4 x i32> , <4 x i32> , <4 x i32> , <4 x i32> , i32 16) nounwind ret void Index: test/CodeGen/ARM/no-tail-call.ll =================================================================== --- test/CodeGen/ARM/no-tail-call.ll +++ test/CodeGen/ARM/no-tail-call.ll @@ -19,28 +19,28 @@ %2 = alloca %foo, align 4 %.native = getelementptr inbounds %foo, %foo* %0, i32 0, i32 0 %.native.value = getelementptr inbounds %Sf, %Sf* %.native, i32 0, i32 0 - store float 0.000000e+00, float* %.native.value, align 4 + store float 0.0e+00, float* %.native.value, align 4 %.native1 = getelementptr inbounds %foo, %foo* %1, i32 0, i32 0 %.native1.value = getelementptr inbounds %Sf, %Sf* %.native1, i32 0, i32 0 - store float 1.000000e+00, float* %.native1.value, align 4 + store float 1.0e+00, float* %.native1.value, align 4 %.native2 = getelementptr inbounds %foo, %foo* %2, i32 0, i32 0 %.native2.value = getelementptr inbounds %Sf, %Sf* %.native2, i32 0, i32 0 - store float 5.000000e+00, float* %.native2.value, align 4 + store float 5.0e+00, float* %.native2.value, align 4 br i1 true, label %3, label %4 ;