llvm/llvm/test/Transforms/Inline/AMDGPU/amdgpu-inline-stack-argument-i64.ll

; REQUIRES: asserts
; RUN: opt -mtriple=amdgcn-amd-amdhsa -S -passes=inline -inline-cost-full=true -inline-threshold=0 -inline-instr-cost=5 -inline-call-penalty=0 -debug-only=inline < %s 2>&1 | FileCheck %s

; CHECK:      NOT Inlining (cost={{[0-9]+}}, threshold={{[0-9]+}}), Call:   %noinlinecall1 = call noundef i64 @non_inlining_call
; CHECK:      NOT Inlining (cost={{[0-9]+}}, threshold={{[0-9]+}}), Call:   %noinlinecall2 = call noundef i64 @non_inlining_call
; CHECK-NOT:  NOT Inlining (cost={{[0-9]+}}, threshold={{[0-9]+}}), Call:   %inlinecall1 = call noundef i64 @inlining_call
; CHECK-NOT:  NOT Inlining (cost={{[0-9]+}}, threshold={{[0-9]+}}), Call:   %inlinecall2 = call noundef i64 @inlining_call

define noundef i64 @non_inlining_call(i64 noundef %a0, i64 noundef %b0, i64 noundef %c0, i64 noundef %d0, i64 noundef %e0, i64 noundef %f0, i64 noundef %g0, i64 noundef %h0, i64 noundef %i0, i64 noundef %j0, i64 noundef %k0, i64 noundef %l0, i64 noundef %m0, i64 noundef %n0, i64 noundef %o0, i64 noundef %p0) {
entry:
  %xor = xor i64 %a0, %b0
  %xor1 = xor i64 %xor, %c0
  %xor2 = xor i64 %xor1, %d0
  %xor3 = xor i64 %xor2, %e0
  %xor4 = xor i64 %xor3, %f0
  %xor5 = xor i64 %xor4, %g0
  %xor6 = xor i64 %xor5, %h0
  %xor7 = xor i64 %xor6, %i0
  %xor8 = xor i64 %xor7, %j0
  %xor9 = xor i64 %xor8, %k0
  %xor10 = xor i64 %xor9, %l0
  %xor11 = xor i64 %xor10, %m0
  %xor12 = xor i64 %xor11, %n0
  %xor13 = xor i64 %xor12, %o0
  %xor14 = xor i64 %xor13, %p0
  %xor15 = xor i64 %xor14, 1
  %xor16 = xor i64 %xor15, 2
  ret i64 %xor16
}

define noundef i64 @inlining_call(i64 noundef %a0, i64 noundef %b0, i64 noundef %c0, i64 noundef %d0, i64 noundef %e0, i64 noundef %f0, i64 noundef %g0, i64 noundef %h0, i64 noundef %i0, i64 noundef %j0, i64 noundef %k0, i64 noundef %l0, i64 noundef %m0, i64 noundef %n0, i64 noundef %o0, i64 noundef %p0, i64 noundef %q0) {
entry:
  %xor = xor i64 %a0, %b0
  %xor1 = xor i64 %xor, %c0
  %xor2 = xor i64 %xor1, %d0
  %xor3 = xor i64 %xor2, %e0
  %xor4 = xor i64 %xor3, %f0
  %xor5 = xor i64 %xor4, %g0
  %xor6 = xor i64 %xor5, %h0
  %xor7 = xor i64 %xor6, %i0
  %xor8 = xor i64 %xor7, %j0
  %xor9 = xor i64 %xor8, %k0
  %xor10 = xor i64 %xor9, %l0
  %xor11 = xor i64 %xor10, %m0
  %xor12 = xor i64 %xor11, %n0
  %xor13 = xor i64 %xor12, %o0
  %xor14 = xor i64 %xor13, %p0
  %xor15 = xor i64 %xor14, %q0
  %xor16 = xor i64 %xor15, 1
  %xor17 = xor i64 %xor16, 1
  ret i64 %xor17
}

; Calling each (non-)inlining function twice to make sure they won't get the sole call inlining cost bonus. 
define i64 @Caller(ptr noundef %in) {
entry:
  %arrayidx = getelementptr inbounds i64, ptr %in, i64 0
  %a0 = load i64, ptr %arrayidx, align 4
  %arrayidx1 = getelementptr inbounds i64, ptr %in, i64 1
  %b0 = load i64, ptr %arrayidx1, align 4
  %arrayidx2 = getelementptr inbounds i64, ptr %in, i64 2
  %c0 = load i64, ptr %arrayidx2, align 4
  %arrayidx3 = getelementptr inbounds i64, ptr %in, i64 3
  %d0 = load i64, ptr %arrayidx3, align 4
  %arrayidx4 = getelementptr inbounds i64, ptr %in, i64 4
  %e0 = load i64, ptr %arrayidx4, align 4
  %arrayidx5 = getelementptr inbounds i64, ptr %in, i64 5
  %f0 = load i64, ptr %arrayidx5, align 4
  %arrayidx6 = getelementptr inbounds i64, ptr %in, i64 6
  %g0 = load i64, ptr %arrayidx6, align 4
  %arrayidx7 = getelementptr inbounds i64, ptr %in, i64 7
  %h0 = load i64, ptr %arrayidx7, align 4
  %arrayidx8 = getelementptr inbounds i64, ptr %in, i64 8
  %i0 = load i64, ptr %arrayidx8, align 4
  %arrayidx9 = getelementptr inbounds i64, ptr %in, i64 9
  %j0 = load i64, ptr %arrayidx9, align 4
  %arrayidx10 = getelementptr inbounds i64, ptr %in, i64 10
  %k0 = load i64, ptr %arrayidx10, align 4
  %arrayidx11 = getelementptr inbounds i64, ptr %in, i64 11
  %l0 = load i64, ptr %arrayidx11, align 4
  %arrayidx12 = getelementptr inbounds i64, ptr %in, i64 12
  %m0 = load i64, ptr %arrayidx12, align 4
  %arrayidx13 = getelementptr inbounds i64, ptr %in, i64 13
  %n0 = load i64, ptr %arrayidx13, align 4
  %arrayidx14 = getelementptr inbounds i64, ptr %in, i64 14
  %o0 = load i64, ptr %arrayidx14, align 4
  %arrayidx15 = getelementptr inbounds i64, ptr %in, i64 15
  %p0 = load i64, ptr %arrayidx15, align 4
  %arrayidx16 = getelementptr inbounds i64, ptr %in, i64 16
  %q0 = load i64, ptr %arrayidx16, align 4
  %noinlinecall1 = call noundef i64 @non_inlining_call(i64 noundef %a0, i64 noundef %b0, i64 noundef %c0, i64 noundef %d0, i64 noundef %e0, i64 noundef %f0, i64 noundef %g0, i64 noundef %h0, i64 noundef %i0, i64 noundef %j0, i64 noundef %k0, i64 noundef %l0, i64 noundef %m0, i64 noundef %n0, i64 noundef %o0, i64 noundef %p0)
  %add = add i64 0, %noinlinecall1
  %noinlinecall2 = call noundef i64 @non_inlining_call(i64 noundef %a0, i64 noundef %b0, i64 noundef %c0, i64 noundef %d0, i64 noundef %e0, i64 noundef %f0, i64 noundef %g0, i64 noundef %h0, i64 noundef %i0, i64 noundef %j0, i64 noundef %k0, i64 noundef %l0, i64 noundef %m0, i64 noundef %n0, i64 noundef %o0, i64 noundef %p0)
  %add2 = add i64 %add, %noinlinecall2
  %inlinecall1 = call noundef i64 @inlining_call(i64 noundef %a0, i64 noundef %b0, i64 noundef %c0, i64 noundef %d0, i64 noundef %e0, i64 noundef %f0, i64 noundef %g0, i64 noundef %h0, i64 noundef %i0, i64 noundef %j0, i64 noundef %k0, i64 noundef %l0, i64 noundef %m0, i64 noundef %n0, i64 noundef %o0, i64 noundef %p0, i64 noundef %q0)
  %add3 = add i64 %add2, %inlinecall1
  %inlinecall2 = call noundef i64 @inlining_call(i64 noundef %a0, i64 noundef %b0, i64 noundef %c0, i64 noundef %d0, i64 noundef %e0, i64 noundef %f0, i64 noundef %g0, i64 noundef %h0, i64 noundef %i0, i64 noundef %j0, i64 noundef %k0, i64 noundef %l0, i64 noundef %m0, i64 noundef %n0, i64 noundef %o0, i64 noundef %p0, i64 noundef %q0)
  %add4 = add i64 %add3, %inlinecall2
  ret i64 %add4
}