@@ -21,6 +21,15 @@ build.debug:
2121 --config-settings=cmake.args=" -DCMAKE_BUILD_TYPE=Debug;-DCMAKE_C_FLAGS='-ggdb -O0';-DCMAKE_CXX_FLAGS='-ggdb -O0'" \
2222 --editable .
2323
24+ build.debug.extra :
25+ python3 -m pip install \
26+ --verbose \
27+ --config-settings=cmake.verbose=true \
28+ --config-settings=logging.level=INFO \
29+ --config-settings=install.strip=false \
30+ --config-settings=cmake.args=" -DCMAKE_BUILD_TYPE=Debug;-DCMAKE_C_FLAGS='-fsanitize=address -ggdb -O0';-DCMAKE_CXX_FLAGS='-fsanitize=address -ggdb -O0'" \
31+ --editable .
32+
2433build.cuda :
2534 CMAKE_ARGS=" -DGGML_CUDA=on" python3 -m pip install --verbose -e .
2635
@@ -46,7 +55,7 @@ build.rpc:
4655 CMAKE_ARGS=" -DGGML_RPC=on" python3 -m pip install --verbose -e .
4756
4857build.sdist :
49- python3 -m build --sdist
58+ python3 -m build --sdist --verbose
5059
5160deploy.pypi :
5261 python3 -m twine upload dist/*
@@ -56,7 +65,7 @@ deploy.gh-docs:
5665 mkdocs gh-deploy
5766
5867test :
59- python3 -m pytest
68+ python3 -m pytest --full-trace -v
6069
6170docker :
6271 docker build -t llama-cpp-python:latest -f docker/simple/Dockerfile .
@@ -68,11 +77,11 @@ clean:
6877 - cd vendor/llama.cpp && make clean
6978 - cd vendor/llama.cpp && rm libllama.so
7079 - rm -rf _skbuild
71- - rm llama_cpp/* .so
72- - rm llama_cpp/* .dylib
73- - rm llama_cpp/* .metal
74- - rm llama_cpp/* .dll
75- - rm llama_cpp/* .lib
80+ - rm llama_cpp/lib/ * .so
81+ - rm llama_cpp/lib/ * .dylib
82+ - rm llama_cpp/lib/ * .metal
83+ - rm llama_cpp/lib/ * .dll
84+ - rm llama_cpp/lib/ * .lib
7685
7786.PHONY : \
7887 update \
0 commit comments