// RUN: %clang_cc1 -flax-vector-conversions=none -ffreestanding %s -triple=x86_64-apple-darwin \ // RUN: -target-feature +avx512bf16 -target-feature \ // RUN: +avx512vl -emit-llvm -o - -Wall -Werror | FileCheck %s #include __m128bh test_mm_cvtne2ps2bf16(__m128 A, __m128 B) { // CHECK-LABEL: @test_mm_cvtne2ps2bf16 // CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.128 // CHECK: ret <8 x i16> %{{.*}} return _mm_cvtne2ps_pbh(A, B); } __m128bh test_mm_maskz_cvtne2ps2bf16(__m128 A, __m128 B, __mmask8 U) { // CHECK-LABEL: @test_mm_maskz_cvtne2ps2bf16 // CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.128 // CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}} // CHECK: ret <8 x i16> %{{.*}} return _mm_maskz_cvtne2ps_pbh(U, A, B); } __m128bh test_mm_mask_cvtne2ps2bf16(__m128bh C, __mmask8 U, __m128 A, __m128 B) { // CHECK-LABEL: @test_mm_mask_cvtne2ps2bf16 // CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.128 // CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}} // CHECK: ret <8 x i16> %{{.*}} return _mm_mask_cvtne2ps_pbh(C, U, A, B); } __m256bh test_mm256_cvtne2ps2bf16(__m256 A, __m256 B) { // CHECK-LABEL: @test_mm256_cvtne2ps2bf16 // CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.256 // CHECK: ret <16 x i16> %{{.*}} return _mm256_cvtne2ps_pbh(A, B); } __m256bh test_mm256_maskz_cvtne2ps2bf16(__m256 A, __m256 B, __mmask16 U) { // CHECK-LABEL: @test_mm256_maskz_cvtne2ps2bf16 // CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.256 // CHECK: select <16 x i1> %{{.*}}, <16 x i16> %{{.*}}, <16 x i16> %{{.*}} // CHECK: ret <16 x i16> %{{.*}} return _mm256_maskz_cvtne2ps_pbh(U, A, B); } __m256bh test_mm256_mask_cvtne2ps2bf16(__m256bh C, __mmask16 U, __m256 A, __m256 B) { // CHECK-LABEL: @test_mm256_mask_cvtne2ps2bf16 // CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.256 // CHECK: select <16 x i1> %{{.*}}, <16 x i16> %{{.*}}, <16 x i16> %{{.*}} // CHECK: ret <16 x i16> %{{.*}} return _mm256_mask_cvtne2ps_pbh(C, U, A, B); } __m512bh test_mm512_cvtne2ps2bf16(__m512 A, __m512 B) { // CHECK-LABEL: @test_mm512_cvtne2ps2bf16 // CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.512 // CHECK: ret <32 x i16> %{{.*}} return _mm512_cvtne2ps_pbh(A, B); } __m512bh test_mm512_maskz_cvtne2ps2bf16(__m512 A, __m512 B, __mmask32 U) { // CHECK-LABEL: @test_mm512_maskz_cvtne2ps2bf16 // CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.512 // CHECK: select <32 x i1> %{{.*}}, <32 x i16> %{{.*}}, <32 x i16> %{{.*}} // CHECK: ret <32 x i16> %{{.*}} return _mm512_maskz_cvtne2ps_pbh(U, A, B); } __m512bh test_mm512_mask_cvtne2ps2bf16(__m512bh C, __mmask32 U, __m512 A, __m512 B) { // CHECK-LABEL: @test_mm512_mask_cvtne2ps2bf16 // CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.512 // CHECK: select <32 x i1> %{{.*}}, <32 x i16> %{{.*}}, <32 x i16> %{{.*}} // CHECK: ret <32 x i16> %{{.*}} return _mm512_mask_cvtne2ps_pbh(C, U, A, B); } __m128bh test_mm_cvtneps2bf16(__m128 A) { // CHECK-LABEL: @test_mm_cvtneps2bf16 // CHECK: @llvm.x86.avx512bf16.mask.cvtneps2bf16.128 // CHECK: ret <8 x i16> %{{.*}} return _mm_cvtneps_pbh(A); } __m128bh test_mm_mask_cvtneps2bf16(__m128bh C, __mmask8 U, __m128 A) { // CHECK-LABEL: @test_mm_mask_cvtneps2bf16 // CHECK: @llvm.x86.avx512bf16.mask.cvtneps2bf16. // CHECK: ret <8 x i16> %{{.*}} return _mm_mask_cvtneps_pbh(C, U, A); } __m128bh test_mm_maskz_cvtneps2bf16(__m128 A, __mmask8 U) { // CHECK-LABEL: @test_mm_maskz_cvtneps2bf16 // CHECK: @llvm.x86.avx512bf16.mask.cvtneps2bf16.128 // CHECK: ret <8 x i16> %{{.*}} return _mm_maskz_cvtneps_pbh(U, A); } __m128bh test_mm256_cvtneps2bf16(__m256 A) { // CHECK-LABEL: @test_mm256_cvtneps2bf16 // CHECK: @llvm.x86.avx512bf16.cvtneps2bf16.256 // CHECK: ret <8 x i16> %{{.*}} return _mm256_cvtneps_pbh(A); } __m128bh test_mm256_mask_cvtneps2bf16(__m128bh C, __mmask8 U, __m256 A) { // CHECK-LABEL: @test_mm256_mask_cvtneps2bf16 // CHECK: @llvm.x86.avx512bf16.cvtneps2bf16.256 // CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}} // CHECK: ret <8 x i16> %{{.*}} return _mm256_mask_cvtneps_pbh(C, U, A); } __m128bh test_mm256_maskz_cvtneps2bf16(__m256 A, __mmask8 U) { // CHECK-LABEL: @test_mm256_maskz_cvtneps2bf16 // CHECK: @llvm.x86.avx512bf16.cvtneps2bf16.256 // CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}} // CHECK: ret <8 x i16> %{{.*}} return _mm256_maskz_cvtneps_pbh(U, A); } __m128 test_mm_dpbf16_ps(__m128 D, __m128bh A, __m128bh B) { // CHECK-LABEL: @test_mm_dpbf16_ps // CHECK: @llvm.x86.avx512bf16.dpbf16ps.128 // CHECK: ret <4 x float> %{{.*}} return _mm_dpbf16_ps(D, A, B); } __m128 test_mm_maskz_dpbf16_ps(__m128 D, __m128bh A, __m128bh B, __mmask8 U) { // CHECK-LABEL: @test_mm_maskz_dpbf16_ps // CHECK: @llvm.x86.avx512bf16.dpbf16ps.128 // CHECK: select <4 x i1> %{{.*}}, <4 x float> %{{.*}}, <4 x float> %{{.*}} // CHECK: ret <4 x float> %{{.*}} return _mm_maskz_dpbf16_ps(U, D, A, B); } __m128 test_mm_mask_dpbf16_ps(__m128 D, __m128bh A, __m128bh B, __mmask8 U) { // CHECK-LABEL: @test_mm_mask_dpbf16_ps // CHECK: @llvm.x86.avx512bf16.dpbf16ps.128 // CHECK: select <4 x i1> %{{.*}}, <4 x float> %{{.*}}, <4 x float> %{{.*}} // CHECK: ret <4 x float> %{{.*}} return _mm_mask_dpbf16_ps(D, U, A, B); } __m256 test_mm256_dpbf16_ps(__m256 D, __m256bh A, __m256bh B) { // CHECK-LABEL: @test_mm256_dpbf16_ps // CHECK: @llvm.x86.avx512bf16.dpbf16ps.256 // CHECK: ret <8 x float> %{{.*}} return _mm256_dpbf16_ps(D, A, B); } __m256 test_mm256_maskz_dpbf16_ps(__m256 D, __m256bh A, __m256bh B, __mmask8 U) { // CHECK-LABEL: @test_mm256_maskz_dpbf16_ps // CHECK: @llvm.x86.avx512bf16.dpbf16ps.256 // CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}} // CHECK: ret <8 x float> %{{.*}} return _mm256_maskz_dpbf16_ps(U, D, A, B); } __m256 test_mm256_mask_dpbf16_ps(__m256 D, __m256bh A, __m256bh B, __mmask8 U) { // CHECK-LABEL: @test_mm256_mask_dpbf16_ps // CHECK: @llvm.x86.avx512bf16.dpbf16ps.256 // CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}} // CHECK: ret <8 x float> %{{.*}} return _mm256_mask_dpbf16_ps(D, U, A, B); } __bfloat16 test_mm_cvtness_sbh(float A) { // CHECK-LABEL: @test_mm_cvtness_sbh // CHECK: @llvm.x86.avx512bf16.mask.cvtneps2bf16.128 // CHECK: ret i16 %{{.*}} return _mm_cvtness_sbh(A); } __m256 test_mm256_cvtpbh_ps(__m128bh A) { // CHECK-LABEL: @test_mm256_cvtpbh_ps // CHECK: sext <8 x i16> %{{.*}} to <8 x i32> // CHECK: @llvm.x86.avx2.pslli.d // CHECK: bitcast <4 x i64> %{{.*}} to <8 x float> // CHECK: ret <8 x float> %{{.*}} return _mm256_cvtpbh_ps(A); } __m256 test_mm256_maskz_cvtpbh_ps(__mmask8 M, __m128bh A) { // CHECK-LABEL: @test_mm256_maskz_cvtpbh_ps // CHECK: sext <8 x i16> %{{.*}} to <8 x i32> // CHECK: select <8 x i1> %{{.*}}, <8 x i32> %{{.*}}, <8 x i32> %{{.*}} // CHECK: @llvm.x86.avx2.pslli.d // CHECK: bitcast <4 x i64> %{{.*}} to <8 x float> // CHECK: ret <8 x float> %{{.*}} return _mm256_maskz_cvtpbh_ps(M, A); } __m256 test_mm256_mask_cvtpbh_ps(__m256 S, __mmask8 M, __m128bh A) { // CHECK-LABEL: @test_mm256_mask_cvtpbh_ps // CHECK: sext <8 x i16> %{{.*}} to <8 x i32> // CHECK: @llvm.x86.avx2.pslli.d // CHECK: select <8 x i1> %{{.*}}, <8 x i32> %{{.*}}, <8 x i32> %{{.*}} // CHECK: bitcast <4 x i64> %{{.*}} to <8 x float> // CHECK: ret <8 x float> %{{.*}} return _mm256_mask_cvtpbh_ps(S, M, A); }