llvm/llvm/test/CodeGen/AArch64/sme2-intrinsics-fmlas16.ll

; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py UTC_ARGS: --filter-out "// kill:.*$" --version 4
; RUN: llc -force-streaming -verify-machineinstrs < %s | FileCheck %s

target triple = "aarch64-linux"

define void @test_fmla_f16_vg2_single(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1, <vscale x 8 x half> %b) #0 {
; CHECK-LABEL: test_fmla_f16_vg2_single:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    fmla za.h[w8, 0, vgx2], { z0.h, z1.h }, z2.h
; CHECK:    fmla za.h[w8, 7, vgx2], { z0.h, z1.h }, z2.h
; CHECK:    ret
  call void @llvm.aarch64.sme.fmla.single.vg1x2.nxv8f16(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1, <vscale x 8 x half> %b)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmla.single.vg1x2.nxv8f16(i32 %slice.7, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1, <vscale x 8 x half> %b)
  ret void
}

define void @test_fmla_f16_vg4_single(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
; CHECK-LABEL: test_fmla_f16_vg4_single:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    fmla za.h[w8, 0, vgx4], { z0.h - z3.h }, z4.h
; CHECK:    fmla za.h[w8, 7, vgx4], { z0.h - z3.h }, z4.h
; CHECK:    ret
                                      <vscale x 8 x half> %a2, <vscale x 8 x half> %a3, <vscale x 8 x half> %b) #0 {
  call void @llvm.aarch64.sme.fmla.single.vg1x4.nxv8f16(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                        <vscale x 8 x half> %a2, <vscale x 8 x half> %a3, <vscale x 8 x half> %b)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmla.single.vg1x4.nxv8f16(i32 %slice.7, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                        <vscale x 8 x half> %a2, <vscale x 8 x half> %a3, <vscale x 8 x half> %b)
  ret void
}

define void @test_fmls_f16_vg2_single(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1, <vscale x 8 x half> %b) #0 {
; CHECK-LABEL: test_fmls_f16_vg2_single:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    fmls za.h[w8, 0, vgx2], { z0.h, z1.h }, z2.h
; CHECK:    fmls za.h[w8, 7, vgx2], { z0.h, z1.h }, z2.h
; CHECK:    ret
  call void @llvm.aarch64.sme.fmls.single.vg1x2.nxv8f16(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1, <vscale x 8 x half> %b)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmls.single.vg1x2.nxv8f16(i32 %slice.7, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1, <vscale x 8 x half> %b)
  ret void
}

define void @test_fmls_f16_vg4_single(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
; CHECK-LABEL: test_fmls_f16_vg4_single:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    fmls za.h[w8, 0, vgx4], { z0.h - z3.h }, z4.h
; CHECK:    fmls za.h[w8, 7, vgx4], { z0.h - z3.h }, z4.h
; CHECK:    ret
                                      <vscale x 8 x half> %a2, <vscale x 8 x half> %a3, <vscale x 8 x half> %b) #0 {
  call void @llvm.aarch64.sme.fmls.single.vg1x4.nxv8f16(i32 %slice, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                        <vscale x 8 x half> %a2, <vscale x 8 x half> %a3, <vscale x 8 x half> %b)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmls.single.vg1x4.nxv8f16(i32 %slice.7, <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                        <vscale x 8 x half> %a2, <vscale x 8 x half> %a3, <vscale x 8 x half> %b)
  ret void
}

define void @test_fmla_f16_vg2_multi(i32 %slice,
; CHECK-LABEL: test_fmla_f16_vg2_multi:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    fmla za.h[w8, 0, vgx2], { z0.h, z1.h }, { z2.h, z3.h }
; CHECK:    fmla za.h[w8, 7, vgx2], { z0.h, z1.h }, { z2.h, z3.h }
; CHECK:    ret
                                     <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                     <vscale x 8 x half> %b0, <vscale x 8 x half> %b1) #0 {
  call void @llvm.aarch64.sme.fmla.vg1x2.nxv8f16(i32 %slice,
                                                <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                <vscale x 8 x half> %b0, <vscale x 8 x half> %b1)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmla.vg1x2.nxv8f16(i32 %slice.7,
                                                 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1)
  ret void
}

define void @test_fmla_f16_vg4_multi(i32 %slice,
; CHECK-LABEL: test_fmla_f16_vg4_multi:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    fmla za.h[w8, 0, vgx4], { z0.h - z3.h }, { z4.h - z7.h }
; CHECK:    fmla za.h[w8, 7, vgx4], { z0.h - z3.h }, { z4.h - z7.h }
; CHECK:    ret
                                     <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                     <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
                                     <vscale x 8 x half> %b0, <vscale x 8 x half> %b1,
                                     <vscale x 8 x half> %b2, <vscale x 8 x half> %b3) #0 {
  call void @llvm.aarch64.sme.fmla.vg1x4.nxv8f16(i32 %slice,
                                                 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
                                                 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1,
                                                 <vscale x 8 x half> %b2, <vscale x 8 x half> %b3)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmla.vg1x4.nxv8f16(i32 %slice.7,
                                                 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
                                                 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1,
                                                 <vscale x 8 x half> %b2, <vscale x 8 x half> %b3)
  ret void
}

define void @test_fmls_f16_vg2_multi(i32 %slice,
; CHECK-LABEL: test_fmls_f16_vg2_multi:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    fmls za.h[w8, 0, vgx2], { z0.h, z1.h }, { z2.h, z3.h }
; CHECK:    fmls za.h[w8, 7, vgx2], { z0.h, z1.h }, { z2.h, z3.h }
; CHECK:    ret
                                     <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                     <vscale x 8 x half> %b0, <vscale x 8 x half> %b1) #0 {
  call void @llvm.aarch64.sme.fmls.vg1x2.nxv8f16(i32 %slice,
                                                <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                <vscale x 8 x half> %b0, <vscale x 8 x half> %b1)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmls.vg1x2.nxv8f16(i32 %slice.7,
                                                 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1)
  ret void
}

define void @test_fmls_f16_vg4_multi(i32 %slice,
; CHECK-LABEL: test_fmls_f16_vg4_multi:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    fmls za.h[w8, 0, vgx4], { z0.h - z3.h }, { z4.h - z7.h }
; CHECK:    fmls za.h[w8, 7, vgx4], { z0.h - z3.h }, { z4.h - z7.h }
; CHECK:    ret
                                     <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                     <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
                                     <vscale x 8 x half> %b0, <vscale x 8 x half> %b1,
                                     <vscale x 8 x half> %b2, <vscale x 8 x half> %b3) #0 {
  call void @llvm.aarch64.sme.fmls.vg1x4.nxv8f16(i32 %slice,
                                                 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
                                                 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1,
                                                 <vscale x 8 x half> %b2, <vscale x 8 x half> %b3)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmls.vg1x4.nxv8f16(i32 %slice.7,
                                                 <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                 <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
                                                 <vscale x 8 x half> %b0, <vscale x 8 x half> %b1,
                                                 <vscale x 8 x half> %b2, <vscale x 8 x half> %b3)
  ret void
}

define void @test_fmla_f16_vg2_index(i32 %slice,
; CHECK-LABEL: test_fmla_f16_vg2_index:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    fmla za.h[w8, 0, vgx2], { z0.h, z1.h }, z2.h[7]
; CHECK:    fmla za.h[w8, 7, vgx2], { z0.h, z1.h }, z2.h[7]
; CHECK:    ret
                                     <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                     <vscale x 8 x half> %b) #0 {
  call void @llvm.aarch64.sme.fmla.lane.vg1x2.nxv8f16(i32 %slice,
                                                      <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                      <vscale x 8 x half> %b, i32 7);
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmla.lane.vg1x2.nxv8f16(i32 %slice.7,
                                                     <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                     <vscale x 8 x half> %b, i32 7);
  ret void
}

define void @test_fmla_f16_vg4_index(i32 %slice,
; CHECK-LABEL: test_fmla_f16_vg4_index:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    fmla za.h[w8, 0, vgx4], { z0.h - z3.h }, z4.h[7]
; CHECK:    fmla za.h[w8, 0, vgx4], { z0.h - z3.h }, z4.h[7]
; CHECK:    ret
                                     <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                     <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
                                     <vscale x 8 x half> %b) #0 {
  call void @llvm.aarch64.sme.fmla.lane.vg1x4.nxv8f16(i32 %slice,
                                                      <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                      <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
                                                      <vscale x 8 x half> %b, i32 7);
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmla.lane.vg1x4.nxv8f16(i32 %slice,
                                                      <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                      <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
                                                      <vscale x 8 x half> %b, i32 7);
  ret void
}

define void @test_fmls_f16_vg2_index(i32 %slice,
; CHECK-LABEL: test_fmls_f16_vg2_index:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    fmls za.h[w8, 0, vgx2], { z0.h, z1.h }, z2.h[7]
; CHECK:    fmls za.h[w8, 7, vgx2], { z0.h, z1.h }, z2.h[7]
; CHECK:    ret
                                     <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                     <vscale x 8 x half> %b) #0 {
  call void @llvm.aarch64.sme.fmls.lane.vg1x2.nxv8f16(i32 %slice,
                                                      <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                      <vscale x 8 x half> %b, i32 7);
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmls.lane.vg1x2.nxv8f16(i32 %slice.7,
                                                     <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                     <vscale x 8 x half> %b, i32 7);
  ret void
}

define void @test_fmls_f16_vg4_index(i32 %slice,
; CHECK-LABEL: test_fmls_f16_vg4_index:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    fmls za.h[w8, 0, vgx4], { z0.h - z3.h }, z4.h[7]
; CHECK:    fmls za.h[w8, 0, vgx4], { z0.h - z3.h }, z4.h[7]
; CHECK:    ret
                                     <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                     <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
                                     <vscale x 8 x half> %b) #0 {
  call void @llvm.aarch64.sme.fmls.lane.vg1x4.nxv8f16(i32 %slice,
                                                      <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                      <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
                                                      <vscale x 8 x half> %b, i32 7);
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmls.lane.vg1x4.nxv8f16(i32 %slice,
                                                      <vscale x 8 x half> %a0, <vscale x 8 x half> %a1,
                                                      <vscale x 8 x half> %a2, <vscale x 8 x half> %a3,
                                                      <vscale x 8 x half> %b, i32 7);
  ret void
}

define void @test_fmla_bf16_vg2_single(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1, <vscale x 8 x bfloat> %b) #0 {
; CHECK-LABEL: test_fmla_bf16_vg2_single:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    bfmla za.h[w8, 0, vgx2], { z0.h, z1.h }, z2.h
; CHECK:    bfmla za.h[w8, 7, vgx2], { z0.h, z1.h }, z2.h
; CHECK:    ret
  call void @llvm.aarch64.sme.fmla.single.vg1x2.nxv8bf16(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1, <vscale x 8 x bfloat> %b)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmla.single.vg1x2.nxv8bf16(i32 %slice.7, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1, <vscale x 8 x bfloat> %b)
  ret void
}

define void @test_fmla_bf16_vg4_single(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
; CHECK-LABEL: test_fmla_bf16_vg4_single:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    bfmla za.h[w8, 0, vgx4], { z0.h - z3.h }, z4.h
; CHECK:    bfmla za.h[w8, 7, vgx4], { z0.h - z3.h }, z4.h
; CHECK:    ret
                                       <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3, <vscale x 8 x bfloat> %b) #0 {
  call void @llvm.aarch64.sme.fmla.single.vg1x4.nxv8bf16(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                         <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3, <vscale x 8 x bfloat> %b)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmla.single.vg1x4.nxv8bf16(i32 %slice.7, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                         <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3, <vscale x 8 x bfloat> %b)
  ret void
}

define void @test_fmls_bf16_vg2_single(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1, <vscale x 8 x bfloat> %b) #0 {
; CHECK-LABEL: test_fmls_bf16_vg2_single:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    bfmls za.h[w8, 0, vgx2], { z0.h, z1.h }, z2.h
; CHECK:    bfmls za.h[w8, 7, vgx2], { z0.h, z1.h }, z2.h
; CHECK:    ret
  call void @llvm.aarch64.sme.fmls.single.vg1x2.nxv8bf16(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1, <vscale x 8 x bfloat> %b)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmls.single.vg1x2.nxv8bf16(i32 %slice.7, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1, <vscale x 8 x bfloat> %b)
  ret void
}

define void @test_fmls_bf16_vg4_single(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
; CHECK-LABEL: test_fmls_bf16_vg4_single:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    bfmls za.h[w8, 0, vgx4], { z0.h - z3.h }, z4.h
; CHECK:    bfmls za.h[w8, 7, vgx4], { z0.h - z3.h }, z4.h
; CHECK:    ret
                                       <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3, <vscale x 8 x bfloat> %b) #0 {
  call void @llvm.aarch64.sme.fmls.single.vg1x4.nxv8bf16(i32 %slice, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                         <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3, <vscale x 8 x bfloat> %b)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmls.single.vg1x4.nxv8bf16(i32 %slice.7, <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                         <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3, <vscale x 8 x bfloat> %b)
  ret void
}

define void @test_fmla_bf16_vg2_multi(i32 %slice,
; CHECK-LABEL: test_fmla_bf16_vg2_multi:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    bfmla za.h[w8, 0, vgx2], { z0.h, z1.h }, { z2.h, z3.h }
; CHECK:    bfmla za.h[w8, 7, vgx2], { z0.h, z1.h }, { z2.h, z3.h }
; CHECK:    ret
                                      <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                      <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1) #0 {
  call void @llvm.aarch64.sme.fmla.vg1x2.nxv8bf16(i32 %slice,
                                                 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmla.vg1x2.nxv8bf16(i32 %slice.7,
                                                  <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                  <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1)
  ret void
}

define void @test_fmla_bf16_vg4_multi(i32 %slice,
; CHECK-LABEL: test_fmla_bf16_vg4_multi:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    bfmla za.h[w8, 0, vgx4], { z0.h - z3.h }, { z4.h - z7.h }
; CHECK:    bfmla za.h[w8, 7, vgx4], { z0.h - z3.h }, { z4.h - z7.h }
; CHECK:    ret
                                      <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                      <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
                                      <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1,
                                      <vscale x 8 x bfloat> %b2, <vscale x 8 x bfloat> %b3) #0 {
  call void @llvm.aarch64.sme.fmla.vg1x4.nxv8bf16(i32 %slice,
                                                  <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                  <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
                                                  <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1,
                                                  <vscale x 8 x bfloat> %b2, <vscale x 8 x bfloat> %b3)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmla.vg1x4.nxv8bf16(i32 %slice.7,
                                                  <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                  <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
                                                  <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1,
                                                  <vscale x 8 x bfloat> %b2, <vscale x 8 x bfloat> %b3)
  ret void
}

define void @test_fmls_bf16_vg2_multi(i32 %slice,
; CHECK-LABEL: test_fmls_bf16_vg2_multi:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    bfmls za.h[w8, 0, vgx2], { z0.h, z1.h }, { z2.h, z3.h }
; CHECK:    bfmls za.h[w8, 7, vgx2], { z0.h, z1.h }, { z2.h, z3.h }
; CHECK:    ret
                                     <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                     <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1) #0 {
  call void @llvm.aarch64.sme.fmls.vg1x2.nxv8bf16(i32 %slice,
                                                <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmls.vg1x2.nxv8bf16(i32 %slice.7,
                                                 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1)
  ret void
}

define void @test_fmls_bf16_vg4_multi(i32 %slice,
; CHECK-LABEL: test_fmls_bf16_vg4_multi:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    bfmls za.h[w8, 0, vgx4], { z0.h - z3.h }, { z4.h - z7.h }
; CHECK:    bfmls za.h[w8, 7, vgx4], { z0.h - z3.h }, { z4.h - z7.h }
; CHECK:    ret
                                     <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                     <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
                                     <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1,
                                     <vscale x 8 x bfloat> %b2, <vscale x 8 x bfloat> %b3) #0 {
  call void @llvm.aarch64.sme.fmls.vg1x4.nxv8bf16(i32 %slice,
                                                 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
                                                 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1,
                                                 <vscale x 8 x bfloat> %b2, <vscale x 8 x bfloat> %b3)
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmls.vg1x4.nxv8bf16(i32 %slice.7,
                                                 <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                 <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
                                                 <vscale x 8 x bfloat> %b0, <vscale x 8 x bfloat> %b1,
                                                 <vscale x 8 x bfloat> %b2, <vscale x 8 x bfloat> %b3)
  ret void
}

define void @test_fmla_bf16_vg2_index(i32 %slice,
; CHECK-LABEL: test_fmla_bf16_vg2_index:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    bfmla za.h[w8, 0, vgx2], { z0.h, z1.h }, z2.h[7]
; CHECK:    bfmla za.h[w8, 7, vgx2], { z0.h, z1.h }, z2.h[7]
; CHECK:    ret
                                      <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                      <vscale x 8 x bfloat> %b) #0 {
  call void @llvm.aarch64.sme.fmla.lane.vg1x2.nxv8bf16(i32 %slice,
                                                       <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                       <vscale x 8 x bfloat> %b, i32 7);
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmla.lane.vg1x2.nxv8bf16(i32 %slice.7,
                                                       <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                       <vscale x 8 x bfloat> %b, i32 7);
  ret void
}

define void @test_fmla_bf16_vg4_index(i32 %slice,
; CHECK-LABEL: test_fmla_bf16_vg4_index:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    bfmla za.h[w8, 0, vgx4], { z0.h - z3.h }, z4.h[7]
; CHECK:    bfmla za.h[w8, 0, vgx4], { z0.h - z3.h }, z4.h[7]
; CHECK:    ret
                                      <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                      <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
                                      <vscale x 8 x bfloat> %b) #0 {
  call void @llvm.aarch64.sme.fmla.lane.vg1x4.nxv8bf16(i32 %slice,
                                                       <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                       <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
                                                       <vscale x 8 x bfloat> %b, i32 7);
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmla.lane.vg1x4.nxv8bf16(i32 %slice,
                                                       <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                       <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
                                                       <vscale x 8 x bfloat> %b, i32 7);
  ret void
}

define void @test_fmls_bf16_vg2_index(i32 %slice,
; CHECK-LABEL: test_fmls_bf16_vg2_index:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    bfmls za.h[w8, 0, vgx2], { z0.h, z1.h }, z2.h[7]
; CHECK:    bfmls za.h[w8, 7, vgx2], { z0.h, z1.h }, z2.h[7]
; CHECK:    ret
                                      <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                      <vscale x 8 x bfloat> %b) #0 {
  call void @llvm.aarch64.sme.fmls.lane.vg1x2.nxv8bf16(i32 %slice,
                                                       <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                       <vscale x 8 x bfloat> %b, i32 7);
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmls.lane.vg1x2.nxv8bf16(i32 %slice.7,
                                                      <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                      <vscale x 8 x bfloat> %b, i32 7);
  ret void
}

define void @test_fmls_bf16_vg4_index(i32 %slice,
; CHECK-LABEL: test_fmls_bf16_vg4_index:
; CHECK:  // %bb.0:
; CHECK:    mov w8, w0
; CHECK:    bfmls za.h[w8, 0, vgx4], { z0.h - z3.h }, z4.h[7]
; CHECK:    bfmls za.h[w8, 0, vgx4], { z0.h - z3.h }, z4.h[7]
; CHECK:    ret
                                      <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                      <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
                                      <vscale x 8 x bfloat> %b) #0 {
  call void @llvm.aarch64.sme.fmls.lane.vg1x4.nxv8bf16(i32 %slice,
                                                       <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                       <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
                                                       <vscale x 8 x bfloat> %b, i32 7);
  %slice.7 = add i32 %slice, 7
  call void @llvm.aarch64.sme.fmls.lane.vg1x4.nxv8bf16(i32 %slice,
                                                       <vscale x 8 x bfloat> %a0, <vscale x 8 x bfloat> %a1,
                                                       <vscale x 8 x bfloat> %a2, <vscale x 8 x bfloat> %a3,
                                                       <vscale x 8 x bfloat> %b, i32 7);
  ret void
}

attributes #0 = { nounwind "target-features"="+sme2p1,+sme-f16f16,+sme-b16b16" }