El desenfoque por profundidad (Depth of Field, DoF) es un fenómeno común en fotografía y visión por computador, que afecta la nitidez de las imágenes y puede dificultar su análisis o procesamiento posterior.
Este proyecto se enfoca en la recuperación de imágenes nítidas a partir de versiones borrosas utilizando técnicas de deblurring asistidas por mapas de profundidad (depth maps). Estos mapas actúan como una guía estructural, permitiendo identificar qué zonas están más o menos desenfocadas según su distancia a la cámara.
Objetivo: Desarrollar un modelo que combine imágenes RGB y mapas de profundidad para mejorar el proceso de restauración visual.
data/— Notebooks para la preparación y carga de datos.images/— Visualizaciones y resultados.loss/— Funciones de pérdida utilizadas en el entrenamiento.models/— Implementación de arquitecturas de modelos y archivos relacionados.notebooks/— Experimentos, pruebas en notebooks de Jupyter.train/— Scripts y lógica relacionados con el entrenamiento del modelo.
Compuesto por 1.449 pares de imágenes RGB y de profundidad alineadas (resolución de 640 × 480) de 464 escenas interiores diversas, capturadas por el sensor Microsoft Kinect.
