Projeto de um theremin virtual controlado por gestos das mãos, utilizando OpenCV e MediaPipe para rastreamento em tempo real. A geração sonora é feita via OSC no Sonic Pi.
- Python 3.8+ — Linguagem principal do projeto
- OpenCV — Captura e processamento de vídeo da webcam
- MediaPipe — Detecção e rastreamento dos landmarks das mãos
- python-osc — Envio de mensagens OSC para controle sonoro
- Numpy — Operações numéricas de suporte
- Sonic Pi — Ambiente de codificação musical (necessário para gerar som)
- SoundDevice (opcional) — Sintetizador simples de som direto no Python
- Pygame (opcional) — Visualização artística com fractais
git clone https://github.com/seu-usuario/theremin-mediapipe.git
cd theremin-mediapipe
Ou baixe o ZIP e extraia para uma pasta.
Certifique-se de ter o pip
instalado:
pip install -r requirements.txt
- Baixe o Sonic Pi: https://sonic-pi.net/downloads
- Abra o Sonic Pi
- Copie um dos scripts da pasta
ruby_sonicPi
para um buffer do Sonic Pi - Execute esse código — ele escutará as mensagens OSC enviadas pelo script Python
-
Abra o Sonic Pi e inicie o código OSC (conforme passo 3 acima)
-
Execute o script Python:
python src/main.py
- Controle o theremin com as mãos:
- 🖐 Mão Direita (Dedo Indicador): Move a mão e mude o posicionamento dos dedos para controlar a altura da nota (pitch)
- 🖐 Mão Esquerda (Dedo Indicador): Move para cima/baixo para controlar o volume
- ⎋ Pressione
ESC
para encerrar o programa
- Fork o repositório
- Crie uma branch (
git checkout -b feature/nova-funcionalidade
) - Commit suas mudanças (
git commit -am 'Adiciona nova funcionalidade'
) - Push para a branch (
git push origin feature/nova-funcionalidade
) - Abra um Pull Request
Este projeto está licenciado sob a MIT License.