|
1 | 1 | #include "common.hpp" |
2 | 2 | #include "element_wise.hpp" |
3 | | -#include "ggml-impl.h" |
4 | 3 |
|
5 | 4 | void acc_f32(const float * x, const float * y, float * dst, const int ne, |
6 | 5 | const int ne10, const int ne11, const int ne12, |
@@ -884,148 +883,148 @@ inline void ggml_sycl_op_div(ggml_backend_sycl_context & ctx, const ggml_tensor |
884 | 883 |
|
885 | 884 |
|
886 | 885 | void ggml_sycl_sqrt(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
887 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 886 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
888 | 887 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sqrt); |
889 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 888 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
890 | 889 | } |
891 | 890 |
|
892 | 891 | void ggml_sycl_sin(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
893 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 892 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
894 | 893 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sin); |
895 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 894 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
896 | 895 | } |
897 | 896 |
|
898 | 897 | void ggml_sycl_cos(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
899 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 898 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
900 | 899 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_cos); |
901 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 900 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
902 | 901 | } |
903 | 902 |
|
904 | 903 | void ggml_sycl_acc(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
905 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 904 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
906 | 905 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_acc); |
907 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 906 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
908 | 907 | } |
909 | 908 |
|
910 | 909 | void ggml_sycl_gelu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
911 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 910 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
912 | 911 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_gelu); |
913 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 912 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
914 | 913 | } |
915 | 914 |
|
916 | 915 | void ggml_sycl_silu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
917 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 916 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
918 | 917 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_silu); |
919 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 918 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
920 | 919 | } |
921 | 920 |
|
922 | 921 | void ggml_sycl_gelu_quick(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
923 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 922 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
924 | 923 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_gelu_quick); |
925 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 924 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
926 | 925 | } |
927 | 926 |
|
928 | 927 | void ggml_sycl_tanh(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
929 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 928 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
930 | 929 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_tanh); |
931 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 930 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
932 | 931 | } |
933 | 932 |
|
934 | 933 | void ggml_sycl_relu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
935 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 934 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
936 | 935 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_relu); |
937 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 936 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
938 | 937 | } |
939 | 938 |
|
940 | 939 | void ggml_sycl_sigmoid(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
941 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 940 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
942 | 941 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sigmoid); |
943 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 942 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
944 | 943 | } |
945 | 944 |
|
946 | 945 | void ggml_sycl_hardsigmoid(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
947 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 946 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
948 | 947 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_hardsigmoid); |
949 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 948 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
950 | 949 | } |
951 | 950 |
|
952 | 951 | void ggml_sycl_hardswish(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
953 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 952 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
954 | 953 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_hardswish); |
955 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 954 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
956 | 955 | } |
957 | 956 |
|
958 | 957 |
|
959 | 958 | void ggml_sycl_exp(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
960 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 959 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
961 | 960 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_exp); |
962 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 961 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
963 | 962 | } |
964 | 963 |
|
965 | 964 | void ggml_sycl_log(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
966 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 965 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
967 | 966 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_log); |
968 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 967 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
969 | 968 | } |
970 | 969 |
|
971 | 970 | void ggml_sycl_neg(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
972 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 971 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
973 | 972 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_neg); |
974 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 973 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
975 | 974 | } |
976 | 975 |
|
977 | 976 | void ggml_sycl_step(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
978 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 977 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
979 | 978 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_step); |
980 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 979 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
981 | 980 | } |
982 | 981 |
|
983 | 982 | void ggml_sycl_leaky_relu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
984 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 983 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
985 | 984 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_leaky_relu); |
986 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 985 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
987 | 986 | } |
988 | 987 |
|
989 | 988 | void ggml_sycl_sqr(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
990 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 989 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
991 | 990 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sqr); |
992 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 991 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
993 | 992 | } |
994 | 993 |
|
995 | 994 | void ggml_sycl_upscale(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
996 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 995 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
997 | 996 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_upscale); |
998 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 997 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
999 | 998 | } |
1000 | 999 |
|
1001 | 1000 | void ggml_sycl_pad(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
1002 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 1001 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
1003 | 1002 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_pad); |
1004 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 1003 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
1005 | 1004 | } |
1006 | 1005 |
|
1007 | 1006 |
|
1008 | 1007 |
|
1009 | 1008 | void ggml_sycl_add(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
1010 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 1009 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
1011 | 1010 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_add); |
1012 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 1011 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
1013 | 1012 | } |
1014 | 1013 |
|
1015 | 1014 | void ggml_sycl_sub(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
1016 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 1015 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
1017 | 1016 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sub); |
1018 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 1017 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
1019 | 1018 | } |
1020 | 1019 |
|
1021 | 1020 | void ggml_sycl_mul(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
1022 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 1021 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
1023 | 1022 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_mul); |
1024 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 1023 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
1025 | 1024 | } |
1026 | 1025 |
|
1027 | 1026 | void ggml_sycl_div(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
1028 | | - GGML_LOG_DEBUG("call %s\n", __func__); |
| 1027 | + GGML_SYCL_DEBUG("call %s\n", __func__); |
1029 | 1028 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_div); |
1030 | | - GGML_LOG_DEBUG("call %s done\n", __func__); |
| 1029 | + GGML_SYCL_DEBUG("call %s done\n", __func__); |
1031 | 1030 | } |
0 commit comments