diff --git a/llvm/test/CodeGen/X86/addcarry.ll b/llvm/test/CodeGen/X86/addcarry.ll --- a/llvm/test/CodeGen/X86/addcarry.ll +++ b/llvm/test/CodeGen/X86/addcarry.ll @@ -889,3 +889,225 @@ store i64 %31, i64* %32, align 8 ret void } + + +%uint128 = type { i64, i64 } + +define zeroext i1 @uaddo128(i64 %0, i64 %1, i64 %2, i64 %3, %uint128* nocapture %4) nounwind { +; CHECK-LABEL: uaddo128: +; CHECK: # %bb.0: +; CHECK-NEXT: addq %rcx, %rsi +; CHECK-NEXT: setb %cl +; CHECK-NEXT: addq %rdx, %rdi +; CHECK-NEXT: adcq $0, %rsi +; CHECK-NEXT: setb %al +; CHECK-NEXT: orb %cl, %al +; CHECK-NEXT: movq %rsi, (%r8) +; CHECK-NEXT: movq %rdi, 8(%r8) +; CHECK-NEXT: retq + %6 = add i64 %2, %0 + %7 = icmp ult i64 %6, %0 + %8 = add i64 %3, %1 + %9 = icmp ult i64 %8, %1 + %10 = zext i1 %7 to i64 + %11 = add i64 %8, %10 + %12 = icmp ult i64 %11, %8 + %13 = or i1 %9, %12 + %14 = getelementptr inbounds %uint128, %uint128* %4, i64 0, i32 0 + store i64 %11, i64* %14, align 8 + %15 = getelementptr inbounds %uint128, %uint128* %4, i64 0, i32 1 + store i64 %6, i64* %15, align 8 + ret i1 %13 +} + + +%uint192 = type { i64, i64, i64 } + +define void @add192(%uint192* sret %0, i64 %1, i64 %2, i64 %3, i64 %4, i64 %5, i64 %6) nounwind { +; CHECK-LABEL: add192: +; CHECK: # %bb.0: +; CHECK-NEXT: movq %rdi, %rax +; CHECK-NEXT: addq %r9, %rdx +; CHECK-NEXT: setb %dil +; CHECK-NEXT: addq %r8, %rsi +; CHECK-NEXT: adcq $0, %rdx +; CHECK-NEXT: setb %r8b +; CHECK-NEXT: orb %dil, %r8b +; CHECK-NEXT: addq {{[0-9]+}}(%rsp), %rcx +; CHECK-NEXT: movzbl %r8b, %edi +; CHECK-NEXT: addq %rcx, %rdi +; CHECK-NEXT: movq %rdi, (%rax) +; CHECK-NEXT: movq %rdx, 8(%rax) +; CHECK-NEXT: movq %rsi, 16(%rax) +; CHECK-NEXT: retq + %8 = add i64 %4, %1 + %9 = icmp ult i64 %8, %1 + %10 = add i64 %5, %2 + %11 = icmp ult i64 %10, %2 + %12 = zext i1 %9 to i64 + %13 = add i64 %10, %12 + %14 = icmp ult i64 %13, %10 + %15 = or i1 %11, %14 + %16 = add i64 %6, %3 + %17 = zext i1 %15 to i64 + %18 = add i64 %16, %17 + %19 = getelementptr inbounds %uint192, %uint192* %0, i64 0, i32 0 + store i64 %18, i64* %19, align 8 + %20 = getelementptr inbounds %uint192, %uint192* %0, i64 0, i32 1 + store i64 %13, i64* %20, align 8 + %21 = getelementptr inbounds %uint192, %uint192* %0, i64 0, i32 2 + store i64 %8, i64* %21, align 8 + ret void +} + + +%uint256 = type { %uint128, %uint128 } + +define void @add256_1(%uint256* sret %0, %uint256* %1, %uint256* %2) nounwind { +; CHECK-LABEL: add256_1: +; CHECK: # %bb.0: +; CHECK-NEXT: pushq %rbx +; CHECK-NEXT: movq %rdi, %rax +; CHECK-NEXT: movq (%rdx), %r9 +; CHECK-NEXT: movq 16(%rdx), %r10 +; CHECK-NEXT: addq (%rsi), %r9 +; CHECK-NEXT: setb %r8b +; CHECK-NEXT: movq 8(%rsi), %rcx +; CHECK-NEXT: movq 8(%rdx), %rbx +; CHECK-NEXT: adcq %rcx, %rbx +; CHECK-NEXT: cmpq %rcx, %rbx +; CHECK-NEXT: setb %r11b +; CHECK-NEXT: sete %cl +; CHECK-NEXT: andb %r8b, %cl +; CHECK-NEXT: orb %r11b, %cl +; CHECK-NEXT: xorl %edi, %edi +; CHECK-NEXT: addq 16(%rsi), %r10 +; CHECK-NEXT: setb %dil +; CHECK-NEXT: movq 24(%rdx), %rdx +; CHECK-NEXT: addq 24(%rsi), %rdx +; CHECK-NEXT: movzbl %cl, %ecx +; CHECK-NEXT: addq %r10, %rcx +; CHECK-NEXT: adcq %rdx, %rdi +; CHECK-NEXT: movq %rdi, (%rax) +; CHECK-NEXT: movq %rcx, 8(%rax) +; CHECK-NEXT: movq %rbx, 16(%rax) +; CHECK-NEXT: movq %r9, 24(%rax) +; CHECK-NEXT: popq %rbx +; CHECK-NEXT: retq + %4 = getelementptr inbounds %uint256, %uint256* %1, i64 0, i32 0, i32 0 + %5 = load i64, i64* %4, align 8 + %6 = getelementptr inbounds %uint256, %uint256* %2, i64 0, i32 0, i32 0 + %7 = load i64, i64* %6, align 8 + %8 = add i64 %7, %5 + %9 = icmp ult i64 %8, %5 + %10 = getelementptr inbounds %uint256, %uint256* %1, i64 0, i32 0, i32 1 + %11 = load i64, i64* %10, align 8 + %12 = getelementptr inbounds %uint256, %uint256* %2, i64 0, i32 0, i32 1 + %13 = load i64, i64* %12, align 8 + %14 = add i64 %13, %11 + %15 = zext i1 %9 to i64 + %16 = add i64 %14, %15 + %17 = icmp ult i64 %16, %11 + %18 = icmp eq i64 %16, %11 + %19 = and i1 %9, %18 + %20 = or i1 %17, %19 + %21 = getelementptr inbounds %uint256, %uint256* %1, i64 0, i32 1, i32 0 + %22 = load i64, i64* %21, align 8 + %23 = getelementptr inbounds %uint256, %uint256* %2, i64 0, i32 1, i32 0 + %24 = load i64, i64* %23, align 8 + %25 = add i64 %24, %22 + %26 = icmp ult i64 %25, %22 + %27 = getelementptr inbounds %uint256, %uint256* %1, i64 0, i32 1, i32 1 + %28 = load i64, i64* %27, align 8 + %29 = getelementptr inbounds %uint256, %uint256* %2, i64 0, i32 1, i32 1 + %30 = load i64, i64* %29, align 8 + %31 = add i64 %30, %28 + %32 = zext i1 %26 to i64 + %33 = add i64 %31, %32 + %34 = zext i1 %20 to i64 + %35 = add i64 %25, %34 + %36 = icmp ult i64 %35, %25 + %37 = zext i1 %36 to i64 + %38 = add i64 %33, %37 + %39 = getelementptr inbounds %uint256, %uint256* %0, i64 0, i32 0, i32 0 + store i64 %38, i64* %39, align 8 + %40 = getelementptr inbounds %uint256, %uint256* %0, i64 0, i32 0, i32 1 + store i64 %35, i64* %40, align 8 + %41 = getelementptr inbounds %uint256, %uint256* %0, i64 0, i32 1, i32 0 + store i64 %16, i64* %41, align 8 + %42 = getelementptr inbounds %uint256, %uint256* %0, i64 0, i32 1, i32 1 + store i64 %8, i64* %42, align 8 + ret void +} + +define void @add256_2(%uint256* sret %0, %uint256* %1, %uint256* %2) nounwind { +; CHECK-LABEL: add256_2: +; CHECK: # %bb.0: +; CHECK-NEXT: movq %rdi, %rax +; CHECK-NEXT: movq (%rdx), %r9 +; CHECK-NEXT: movq 8(%rdx), %r10 +; CHECK-NEXT: addq 8(%rsi), %r10 +; CHECK-NEXT: setb %r8b +; CHECK-NEXT: addq (%rsi), %r9 +; CHECK-NEXT: adcq $0, %r10 +; CHECK-NEXT: setb %cl +; CHECK-NEXT: orb %r8b, %cl +; CHECK-NEXT: movq 16(%rdx), %rdi +; CHECK-NEXT: addq 16(%rsi), %rdi +; CHECK-NEXT: setb %r8b +; CHECK-NEXT: movzbl %cl, %r11d +; CHECK-NEXT: addq %rdi, %r11 +; CHECK-NEXT: setb %cl +; CHECK-NEXT: orb %r8b, %cl +; CHECK-NEXT: movq 24(%rdx), %rdx +; CHECK-NEXT: addq 24(%rsi), %rdx +; CHECK-NEXT: movzbl %cl, %ecx +; CHECK-NEXT: addq %rdx, %rcx +; CHECK-NEXT: movq %rcx, (%rax) +; CHECK-NEXT: movq %r11, 8(%rax) +; CHECK-NEXT: movq %r10, 16(%rax) +; CHECK-NEXT: movq %r9, 24(%rax) +; CHECK-NEXT: retq + %4 = getelementptr inbounds %uint256, %uint256* %1, i64 0, i32 0, i32 0 + %5 = load i64, i64* %4, align 8 + %6 = getelementptr inbounds %uint256, %uint256* %2, i64 0, i32 0, i32 0 + %7 = load i64, i64* %6, align 8 + %8 = add i64 %7, %5 + %9 = icmp ult i64 %8, %5 + %10 = getelementptr inbounds %uint256, %uint256* %1, i64 0, i32 0, i32 1 + %11 = load i64, i64* %10, align 8 + %12 = getelementptr inbounds %uint256, %uint256* %2, i64 0, i32 0, i32 1 + %13 = load i64, i64* %12, align 8 + %14 = add i64 %13, %11 + %15 = icmp ult i64 %14, %11 + %16 = zext i1 %9 to i64 + %17 = add i64 %14, %16 + %18 = icmp ult i64 %17, %16 + %19 = or i1 %15, %18 + %20 = getelementptr inbounds %uint256, %uint256* %1, i64 0, i32 1, i32 0 + %21 = load i64, i64* %20, align 8 + %22 = getelementptr inbounds %uint256, %uint256* %2, i64 0, i32 1, i32 0 + %23 = load i64, i64* %22, align 8 + %24 = add i64 %23, %21 + %25 = icmp ult i64 %24, %21 + %26 = zext i1 %19 to i64 + %27 = add i64 %24, %26 + %28 = icmp ult i64 %27, %26 + %29 = or i1 %25, %28 + %30 = getelementptr inbounds %uint256, %uint256* %1, i64 0, i32 1, i32 1 + %31 = load i64, i64* %30, align 8 + %32 = getelementptr inbounds %uint256, %uint256* %2, i64 0, i32 1, i32 1 + %33 = load i64, i64* %32, align 8 + %34 = add i64 %33, %31 + %35 = zext i1 %29 to i64 + %36 = add i64 %34, %35 + %37 = getelementptr inbounds %uint256, %uint256* %0, i64 0, i32 0, i32 0 + store i64 %36, i64* %37, align 8 + %38 = getelementptr inbounds %uint256, %uint256* %0, i64 0, i32 0, i32 1 + store i64 %27, i64* %38, align 8 + %39 = getelementptr inbounds %uint256, %uint256* %0, i64 0, i32 1, i32 0 + store i64 %17, i64* %39, align 8 + %40 = getelementptr inbounds %uint256, %uint256* %0, i64 0, i32 1, i32 1 + store i64 %8, i64* %40, align 8 + ret void +}