|
1 | 1 | #include "common.hpp" |
2 | 2 | #include "element_wise.hpp" |
| 3 | +#include "ggml-impl.h" |
3 | 4 |
|
4 | 5 | void acc_f32(const float * x, const float * y, float * dst, const int ne, |
5 | 6 | const int ne10, const int ne11, const int ne12, |
@@ -883,148 +884,148 @@ inline void ggml_sycl_op_div(ggml_backend_sycl_context & ctx, const ggml_tensor |
883 | 884 |
|
884 | 885 |
|
885 | 886 | void ggml_sycl_sqrt(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
886 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 887 | + GGML_LOG_DEBUG("call %s\n", __func__); |
887 | 888 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sqrt); |
888 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 889 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
889 | 890 | } |
890 | 891 |
|
891 | 892 | void ggml_sycl_sin(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
892 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 893 | + GGML_LOG_DEBUG("call %s\n", __func__); |
893 | 894 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sin); |
894 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 895 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
895 | 896 | } |
896 | 897 |
|
897 | 898 | void ggml_sycl_cos(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
898 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 899 | + GGML_LOG_DEBUG("call %s\n", __func__); |
899 | 900 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_cos); |
900 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 901 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
901 | 902 | } |
902 | 903 |
|
903 | 904 | void ggml_sycl_acc(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
904 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 905 | + GGML_LOG_DEBUG("call %s\n", __func__); |
905 | 906 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_acc); |
906 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 907 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
907 | 908 | } |
908 | 909 |
|
909 | 910 | void ggml_sycl_gelu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
910 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 911 | + GGML_LOG_DEBUG("call %s\n", __func__); |
911 | 912 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_gelu); |
912 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 913 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
913 | 914 | } |
914 | 915 |
|
915 | 916 | void ggml_sycl_silu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
916 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 917 | + GGML_LOG_DEBUG("call %s\n", __func__); |
917 | 918 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_silu); |
918 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 919 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
919 | 920 | } |
920 | 921 |
|
921 | 922 | void ggml_sycl_gelu_quick(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
922 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 923 | + GGML_LOG_DEBUG("call %s\n", __func__); |
923 | 924 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_gelu_quick); |
924 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 925 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
925 | 926 | } |
926 | 927 |
|
927 | 928 | void ggml_sycl_tanh(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
928 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 929 | + GGML_LOG_DEBUG("call %s\n", __func__); |
929 | 930 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_tanh); |
930 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 931 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
931 | 932 | } |
932 | 933 |
|
933 | 934 | void ggml_sycl_relu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
934 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 935 | + GGML_LOG_DEBUG("call %s\n", __func__); |
935 | 936 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_relu); |
936 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 937 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
937 | 938 | } |
938 | 939 |
|
939 | 940 | void ggml_sycl_sigmoid(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
940 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 941 | + GGML_LOG_DEBUG("call %s\n", __func__); |
941 | 942 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sigmoid); |
942 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 943 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
943 | 944 | } |
944 | 945 |
|
945 | 946 | void ggml_sycl_hardsigmoid(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
946 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 947 | + GGML_LOG_DEBUG("call %s\n", __func__); |
947 | 948 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_hardsigmoid); |
948 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 949 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
949 | 950 | } |
950 | 951 |
|
951 | 952 | void ggml_sycl_hardswish(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
952 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 953 | + GGML_LOG_DEBUG("call %s\n", __func__); |
953 | 954 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_hardswish); |
954 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 955 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
955 | 956 | } |
956 | 957 |
|
957 | 958 |
|
958 | 959 | void ggml_sycl_exp(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
959 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 960 | + GGML_LOG_DEBUG("call %s\n", __func__); |
960 | 961 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_exp); |
961 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 962 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
962 | 963 | } |
963 | 964 |
|
964 | 965 | void ggml_sycl_log(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
965 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 966 | + GGML_LOG_DEBUG("call %s\n", __func__); |
966 | 967 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_log); |
967 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 968 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
968 | 969 | } |
969 | 970 |
|
970 | 971 | void ggml_sycl_neg(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
971 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 972 | + GGML_LOG_DEBUG("call %s\n", __func__); |
972 | 973 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_neg); |
973 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 974 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
974 | 975 | } |
975 | 976 |
|
976 | 977 | void ggml_sycl_step(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
977 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 978 | + GGML_LOG_DEBUG("call %s\n", __func__); |
978 | 979 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_step); |
979 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 980 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
980 | 981 | } |
981 | 982 |
|
982 | 983 | void ggml_sycl_leaky_relu(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
983 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 984 | + GGML_LOG_DEBUG("call %s\n", __func__); |
984 | 985 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_leaky_relu); |
985 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 986 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
986 | 987 | } |
987 | 988 |
|
988 | 989 | void ggml_sycl_sqr(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
989 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 990 | + GGML_LOG_DEBUG("call %s\n", __func__); |
990 | 991 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sqr); |
991 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 992 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
992 | 993 | } |
993 | 994 |
|
994 | 995 | void ggml_sycl_upscale(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
995 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 996 | + GGML_LOG_DEBUG("call %s\n", __func__); |
996 | 997 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_upscale); |
997 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 998 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
998 | 999 | } |
999 | 1000 |
|
1000 | 1001 | void ggml_sycl_pad(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
1001 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 1002 | + GGML_LOG_DEBUG("call %s\n", __func__); |
1002 | 1003 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_pad); |
1003 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 1004 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
1004 | 1005 | } |
1005 | 1006 |
|
1006 | 1007 |
|
1007 | 1008 |
|
1008 | 1009 | void ggml_sycl_add(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
1009 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 1010 | + GGML_LOG_DEBUG("call %s\n", __func__); |
1010 | 1011 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_add); |
1011 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 1012 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
1012 | 1013 | } |
1013 | 1014 |
|
1014 | 1015 | void ggml_sycl_sub(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
1015 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 1016 | + GGML_LOG_DEBUG("call %s\n", __func__); |
1016 | 1017 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_sub); |
1017 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 1018 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
1018 | 1019 | } |
1019 | 1020 |
|
1020 | 1021 | void ggml_sycl_mul(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
1021 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 1022 | + GGML_LOG_DEBUG("call %s\n", __func__); |
1022 | 1023 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_mul); |
1023 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 1024 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
1024 | 1025 | } |
1025 | 1026 |
|
1026 | 1027 | void ggml_sycl_div(ggml_backend_sycl_context & ctx, const ggml_tensor * src0, const ggml_tensor * src1, ggml_tensor * dst) { |
1027 | | - GGML_SYCL_DEBUG("call %s\n", __func__); |
| 1028 | + GGML_LOG_DEBUG("call %s\n", __func__); |
1028 | 1029 | ggml_sycl_op_flatten(ctx, src0, src1, dst, ggml_sycl_op_div); |
1029 | | - GGML_SYCL_DEBUG("call %s done\n", __func__); |
| 1030 | + GGML_LOG_DEBUG("call %s done\n", __func__); |
1030 | 1031 | } |
0 commit comments