From 53075bb487bd4cdeb0fa6b680388ea8fa963f3ab Mon Sep 17 00:00:00 2001 From: Daniel Garcia Date: Sun, 29 Dec 2024 23:26:27 +0100 Subject: [PATCH] Add correct Discord reference channels --- chapters/en/unit0/welcome/welcome.mdx | 4 +- chapters/es/unit0/welcome/TableOfContents.mdx | 45 ----- chapters/es/unit0/welcome/welcome.mdx | 163 ------------------ 3 files changed, 2 insertions(+), 210 deletions(-) delete mode 100644 chapters/es/unit0/welcome/TableOfContents.mdx delete mode 100644 chapters/es/unit0/welcome/welcome.mdx diff --git a/chapters/en/unit0/welcome/welcome.mdx b/chapters/en/unit0/welcome/welcome.mdx index fc06a48ad..debc5a3a9 100644 --- a/chapters/en/unit0/welcome/welcome.mdx +++ b/chapters/en/unit0/welcome/welcome.mdx @@ -52,10 +52,10 @@ There are many channels focused on various topics on our Discord server. You wil As a computer vision course learner, you may find the following set of channels particularly relevant: - `#computer-vision`: a catch-all channel for everything related to computer vision -- `#cv-study-group`: a place to exchange ideas, ask questions about specific posts and start discussions +- `#cv-community-project`: a place to exchange ideas, ask questions about specific posts and start discussions - `#3d`: a channel to discuss aspects of computer vision specific to 3D computer vision -If you are interested in generative AI, we also invite you to join all channels related to the Diffusion Models: #core-announcements, #discussions, #dev-discussions, and #diff-i-made-this. +If you are interested in generative AI, we also invite you to join all channels related to the Diffusion Models: #core-announcements, #discussions, #dev-discussions, and #i-made-this. ## What you will learn diff --git a/chapters/es/unit0/welcome/TableOfContents.mdx b/chapters/es/unit0/welcome/TableOfContents.mdx deleted file mode 100644 index acb718772..000000000 --- a/chapters/es/unit0/welcome/TableOfContents.mdx +++ /dev/null @@ -1,45 +0,0 @@ -# Lista de contenidos para los notebooks - -Aquí puedes encontrar una lista de notebooks que contienen material de apoyo y máterial práctico de los capítulos que encontrarás en este curso. -Sientete libre de revisarlos a tu ritmo y necesidad. - - -| Título del capítulo | Notebooks | Colabs | -| ------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | -| Unidad 0 - Bienvenid@ | Sin Notebook | Sin Colab | -| Unidad 1 - Conceptos fundamentales | Sin Notebook | Sin Colab | -| Unidad 2 - Redes Neuronales Convolucionales | [Transfer Learning with VGG19](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/transfer_learning_vgg19.ipynb) | [Transfer Learning with VGG](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/transfer_learning_vgg19.ipynb) | -| | [Using ResNet with timm](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/timm_Resnet.ipynb) | [timm_Resnet](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%202%20-%20Convolutional%20Neural%20Networks/timm_Resnet.ipynb) | -| Unidad 3 - Transformers para Visión | [Detection Transformer (DETR)](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/DETR.ipynb) | [Detection Transformer (DETR)](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/DETR.ipynb) | -| | [Fine-tuning Vision Transformers for Object Detection](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/Fine-tuning%20Vision%20Transformers%20for%20Object%20detection.ipynb) | [Fine-tuning Vision Transformers for Object Detection](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/Fine-tuning%20Vision%20Transformers%20for%20Object%20detection.ipynb) | -| | [Knowledge Distillation](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/KnowledgeDistillation.ipynb) | [Knowledge Distillation](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/KnowledgeDistillation.ipynb) | -| | [LoRA Fine-tuning for Image Classification](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/LoRA-Image-Classification.ipynb) | [LoRA Fine-tuning for Image Classification](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/LoRA-Image-Classification.ipynb) | -| | [Fine-tuning for Multilabel Image Classification](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/fine-tuning-multilabel-image-classification.ipynb) | [Fine-tuning for Multilabel Image Classification](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/fine-tuning-multilabel-image-classification.ipynb) | -| | [Transfer Learning for Image Classification](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/transfer-learning-image-classification.ipynb) | [Transfer Learning for Image Classification](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/transfer-learning-image-classification.ipynb) | -| | [Transfer Learning for Image Segmentation](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/transfer-learning-segmentation.ipynb) | [Transfer Learning for Image Segmentation](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/transfer-learning-segmentation.ipynb) | -| | [Swin Transformer](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/Swin.ipynb) | [Swin Transformer](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%203%20-%20Vision%20Transformers/Swin.ipynb) | -| Unidad 4 - Modelos multimodales | [Clip Crop](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/ClipCrop.ipynb) | [Clip Crop](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/ClipCrop.ipynb) | -| | [Fine-tuning CLIP](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/Clip_finetune.ipynb) | [Fine-tuning CLIP](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/Clip_finetune.ipynb) | -| | [Clustering with CLIP](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Clustering%20with%20CLIP.ipynb) | [Clustering with CLIP](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Clustering%20with%20CLIP.ipynb) | -| | [Image Classification with CLIP](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image%20classification%20with%20CLIP.ipynb) | [Image Classification with CLIP](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image%20classification%20with%20CLIP.ipynb) | -| | [Image Retrieval with Prompts](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_retrieval_with_prompts.ipynb) | [Image Retrieval with Prompts](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_retrieval_with_prompts.ipynb) | -| | [Image Similarity](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_similarity.ipynb) | [Image Similarity](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%204%20-%20Multimodal%20Models/CLIP%20and%20relatives/Image_similarity.ipynb) | -| Unidad 5 - Modelos generativos | Sin Notebook | Sin Colab | -| Unidad 6 - Tareas básicas de Visión Artificial | [Fine-tune SAM on Custom Dataset]() | [Fine-tune SAM on Custom Dataset]() | -| Unidad 7 - Video y procesamiento de video | [Fine-tune ViViT for Video Classification](https://github.com/DiwakarBasnet/computer-vision-course/blob/unit-7_Video_and_VideoProcessing/notebooks/Unit%207%20-%20Video%20and%20Video%20Processing/Vivit_Fine_tuned_Video_Classification.ipynb) | [Fine-tune ViViT for Video Classification](https://github.com/DiwakarBasnet/computervisioncourse/blob/unit7_Video_and_VideoProcessing/notebooks/Unit%207%20%20Video%20and%20Video%20Processing/Vivit_Fine_tuned_Video_Classification.ipynb) | -| Unidad 8 - Visión para 3D, Renderización y reconstrucción de escenas | Sin Notebook | Sin Colab | -| Unidad 9 - Optimización de modelos | [Edge TPU](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/edge_tpu.ipynb) | [Edge TPU](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/edge_tpu.ipynb) | -| | [ONNX](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/onnx.ipynb) | [ONNX](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/onnx.ipynb) | -| | [OpenVINO](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/openvino.ipynb) | [OpenVINO](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/openvino.ipynb) | -| | [Optimum](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/optimum.ipynb) | [Optimum](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/optimum.ipynb) | -| | [TensorRT](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/tensorrt.ipynb) | [TensorRT](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/tensorrt.ipynb) | -| | [TMO](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/tmo.ipynb) | [TMO](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/tmo.ipynb) | -| | [Torch](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/torch.ipynb) | [Torch](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%209%20-%20Model%20Optimization/torch.ipynb) | -| Unidad 10 - Creación de datos sintéticos | [Dataset Labeling with OWLv2](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/OWLV2_labeled_image_dataset_with_annotations.ipynb) | [Dataset Labeling with OWLv2](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/OWLV2_labeled_image_dataset_with_annotations.ipynb) | -| | [Generating Synthetic Lung Images](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/Synthetic_lung_images_hf_course.ipynb) | [Generating Synthetic Lung Images](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/Synthetic_lung_images_hf_course.ipynb) | -| | [BlenderProc Examples](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/blenderproc_examples.ipynb) | [BlenderProc Examples](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/blenderproc_examples.ipynb) | -| | [Image Labeling with BLIP-2](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/image_labeling_BLIP_2.ipynb) | [Image Labeling with BLIP-2](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/image_labeling_BLIP_2.ipynb) | -| | [Synthetic Data Creation with SDXL Turbo](https://github.com/johko/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/synthetic_data_creation_sdxl_turbo.ipynb) | [Synthetic Data Creation with SDXL Turbo](https://colab.research.google.com/github/fariddinar/computer-vision-course/blob/main/notebooks/Unit%2010%20-%20Synthetic%20Data%20Creation/synthetic_data_creation_sdxl_turbo.ipynb) | -| Unidad 11 - Visión Artificial de Zero Shot | Sin Notebook | Sin Colab | -| Unidad 12 - Ética y sesgo en Visión Artificial | Sin Notebook | Sin Colab | -| Unidad 13 - Futuro y tendencias emergentes | Sin Notebook | Sin Colab | diff --git a/chapters/es/unit0/welcome/welcome.mdx b/chapters/es/unit0/welcome/welcome.mdx deleted file mode 100644 index 47f5aee8f..000000000 --- a/chapters/es/unit0/welcome/welcome.mdx +++ /dev/null @@ -1,163 +0,0 @@ -# Bienvenid@ al curso comunitario de Visión Artificial - -Querido participante, - -Bienvenid@ al **curso de visión artificial impulsado por la comunidad de 🤗**. El campo de la visión artificial está revolucionando el mundo de muchas maneras, desde el desbloqueo de teléfonos móviles a través de sistemas de reconocimiento facial, pasando por el análisis de imágenes médicas para la detección de enfermedades, hasta la vigilancia de la vida salvaje o la generación de nuevas imágenes. Juntos, nos sumergiremos en el fascinante mundo de la visión artificial! - -En este curso cubriremos todo lo relacionado con visión artificial, desde los conceptos más básicos hasta los últimos avances en este campo. Está estructurado y diseñado para incluir temas fundacionales, de tal manera que sea accesible y agradable para todo el mundo. Nos encanta que hayas decidido acompañarnos en este fantástico viaje! - -En esta página encontrarás información sobre cómo unirte a la comunidad de participantes, subir tus archivos, obtener la certificación, y otros detalles sobre el curso! - -## Tareas 📄 - -Para obtener la certificación al terminar el curso, tendrás que realizar las siguientes tareas: - -1. Entrenar/afinar un modelo -2. Crear una aplicación y subirla/hostearla en un espacio de Hugging Face (Hugging Face Spaces) - -### Entrenar/Afinar un modelo - -Para ello, encontrarás notebooks debajo de la sección de Notebooks/Vision Transformers. De momento, existen notebooks para detección de objetos, segmentación de imágenes y clasificación de imágenes. Puedes tanto entrenar un modelo en un dataset que ya exista en el repositorio de 🤗 o subir un dataset a un repositorio privado y entrenar un modelo sobre ese mismo dataset. - -El repositorio de modelos necesita contar con lo siguiente: - - -1. Una tarjeta de modelo rellenada correctamente, puedes dirigirte [aquí para más información sobre como rellenarla](https://huggingface.co/docs/hub/en/model-cards). -2. Si has entrenado un modelo utilizando la librería de transformers y lo has subido al repositorio de HF, la tarjeta del modelo se generará automáticamente. En ese caso, edita la tarjeta y rellena los detalles que faltan. -3. Añade el ID del dataset a la tarjeta del modelo para enlazar el repositorio del modelo al repositorio del dataset. - -### Creando un Espacio - -En esta parte de la tarea construirás una aplicación basada en Gradio para tu modelo de visión artificial, la cual compartirás posteriormente en los espacios de 🤗. Explora más info sobre estas tareas en los siguientes recursos: - -- [Empezando con Gradio](https://huggingface.co/learn/nlp-course/chapter9/1?fw=pt#introduction-to-gradio) -- [Cómo compartir tu aplicación en los espacios de 🤗](https://huggingface.co/learn/nlp-course/chapter9/4?fw=pt) - -## Certificación 🥇 - -Una vez que hayas finalizado las tareas de Entrenar/Afinar un modelo y crear un espacio, por favor, rellena el [formulario](https://forms.gle/isiVSw59oiiHP6pN9) con tu nombre, correo, y links a los repositorios de tu modelo y espacio para recibir tu certificado. - -## Únete a la comunidad! - -Te invitamos a ser parte de [nuestra comunidad activa y amistosa en Discord](http://hf.co/join/discord), donde nació este curso y donde podrás encontrar conversaciones fascinantes e intereses comunes con otros miembros. Allí encontrarás otros participantes con los que intercambiar ideas y recursos. Es tu fuente para colaborar con otros, recibir feedback y preguntar dudas! - -También es una manera de motivarte para seguir el curso. Unirse a nuestra comunidad es una manera estupenda de mantenerse al día. Quién sabe que será lo próximo que construiremos juntos? - -Mientras la Inteligencia Artificial continúa avanzando, también lo hace la calidad de nuestras discusiones y la diversidad de las perspectivas dentro de nuestra comunidad. Al convertirte en miembro, tendrás la oportunidad de conectar con otros participantes del curso, intercambiar ideas, y colaborar con otros. Además, los creadores y colaboradores de este curso están atentos y activos en Discord, y podrían ayudarte en caso de que lo necesitases. Únete ahora! - -## Canales de Visión Artificial - -Hay muchos canales en nuestro servidor de Discord, cada uno dedicado a temas distintos. Te encontrarás a gente hablando de artículos académicos, organizando eventos, compartiendo sus proyectos e ideas, compartiendo ideas y haciendo brainstorming y mucho más. - -Como participante del curso de Visión Artificial, puede que encuentres especialmente relevantes los siguientes canales: - -- `#computer-vision`: un canal general para todo lo relacionado con Visión Artificial -- `#3d`: un canal para hablar de Visión Artificial específicamente aplicada a Visión Artificial en 3D. - -Si estás interesado en Inteligencia Artificial Generativa, también te invitamos a que te unas a todos los canales relacionados con modelos de Difusión: `#core-announcements`, `#discussions`, `#dev-discussions`, y `#i-made-this`. - -## Qué aprenderás - -Este curso está compuesto de teoría, tutoriales prácticos y retos fascinantes. - -- **Parte de teoría**: Esta sección cubre los principios teóricos de Visión Artificial, todos ellos explicados en detalle con ejemplos prácticos. -- **Tutoriales prácticos**: Aprenderás cómo entrenar y aplicar modelos relevantes de Visión Artificial utilizando notebooks de Google Collab. - -A lo largo de este curso, cubriremos todo, desde los conceptos básicos a los últimos avances en Visión Artificial. Está estructurado de manera que cubre varios temas fundacionales, dándote una perspectiva y conocimiento en profundidad de por qué el uso de técnicas de Visión Artificial tiene tanto impacto en el mundo real. - -## Prerrequisitos - -Antes de empezar el curso, asegúrate de contar con algo de experiencia programando en Python y conocer conceptos relacionados con transformers, machine learning y redes neuronales. Si cualquiera de estos conceptos es nuevo para ti, quizá sea bueno que repases [la primera unidad del curso de NLP de Hugging Face](https://huggingface.co/learn/nlp-course/chapter1/3?fw=pt). Tener un buen conocimiento de técnicas de preprocesamiento y operaciones matemáticas es bueno, no son necesariamente prerrequisitos para este curso. - -## Estructura del curso - -El curso está organizado en varias unidades, las cuales van desde lo fundamental hasta un repaso profundo de los modelos más avanzados (state-of-the-art models o SOTA): - -- **Unidad 1 - Conceptos fundamentales de Visión Artificial** : esta unidad cubre los conceptos esenciales para empezar con visión artificial: la necesidad para la existencia de visión artificial, los conceptos básicos de este campo y sus aplicaciones. También se exploran aspectos como la formación, el preprocesamiento y otros conceptos básicos del tratamiento de imágenes, así como aspectos clave de la extracción de características. -- **Unidad 2 - Redes Neuronales Convolucionales (CNNs por sus siglas en inglés)** : explora el mundo de las CNNs, entendiendo su arquitectura general, conceptos clave y los modelos pre-entrenados más relevantes. Aprende como aplicar conocimiento por transferencia (transfer learning) y afinar este tipo de modelos pre-entrenados para adaptarlos a tareas específicas. -- **Unidad 3 - Transformers para Visión (Vision Transformers o ViTs por sus siglas en inglés)** : explora la arquitectura de transformers en un contexto de visión artificial y aprende como se comparan con las redes convolucionales. Aprende sobre los transformers de visión más utilizados como Swin, DETR o CVT, junto con técnicas de transfer learning y el afinamiento de dichos modelos. -- **Unidad 4 - Modelos multimodales** : entiende la mezcla entre texto y visión a través de la exploración de tareas multimodales como imagen-a-texto y texto-a-imagen. Estudia modelos como CLIP y aquellos relacionados (GroupViT, BLIPM, Owl-VIT), y domina las técnicas de transfer learning para tareas multimodales. -- **Unidad 5 - Modelos generativos** : explora modelos generativos, incluyendo GANs (redes generativas adversativas), VAEs (autoencoders variacionales) y modelos de Difusión. Aprende sus diferencias y aplicaciones en tareas como texto-a-imagen, imagen-a-imagen e inpainting (restauración o generación de partes en una imagen). -- **Unidad 6 - Tareas básicas de Visión Artificial** : cubriremos tareas fundamentales como clasificación de imágenes, detección de objetos y segmentación de imágenes, y los modelos más habituales utilizados para estas tareas (YOLO, SAM). Aprenderás sobre las métricas de evaluación y las aplicaciones reales de estas tareas. -- **Unidad 7 - Video y procesamiento de video** : examinaremos las características de los videos, el rol del procesamiento de video y los retos que existen en comparación al procesamiento de imágenes. Exploraremos continuidad temporal, estimación del movimiento y las aplicaciones prácticas del procesamiento de video. -- **Unidad 8 - Visión para 3D, Renderización y reconstrucción de escenas** : explora las complejidades de la visión en tres dimensiones, explorando conceptos como Nerf y GQN para renderización y reconstrucción de escenas. También aprenderás sobre los retos y aplicaciones de la visión artificial en 3D y como provee de una perspectiva con incluso mayor información espacial. -- **Unidad 9 - Optimización de modelos** : explora los aspectos críticos de la optimización de modelos. Cubriremos técnicas como compresión de modelos, consideraciones a la hora del despliegue y, por último, el uso de herramientas y frameworks. Se incluyen temas como destilación (distillation), poda (pruning) y TinyML para un despliegue de modelos eficiente. -- **Unidad 10 - Creación de datos sintéticos** : descubre la importancia de la creación de datos sintéticos utilizando modelos generativos. Explora métodos como puntos de nubes y modelos de Difusión e investiga datasets sintéticos relevantes y sus aplicaciones en visión artificial. -- **Unidad 11 - Visión Artificial de Zero Shot** : entra en el reino del aprendizaje zero-shot en visión artificial, cubriendo aspectos de generalización, transfer learning y sus aplicaciones en tareas como reconocimiento de zero-shot y segmentación de imágenes. Explora la relación entre el aprendizaje zero-shot y transfer learning de manera transversal en distintas áreas de Visión Artificial. -- **Unidad 12 - Ética y sesgo en Visión Artificial** : entiende las consideraciones éticas específicas a Visión Artificial. Explora por qué la ética importa en Visión Artificial, cómo los sesgos pueden existir en modelos de Inteligencia Artificial y los tipos de sesgos que prevalecen en estos campos. Aprende cómo evaluar y mitigar el sesgo, siempre enfatizando el desarrollo y despliegue responsable de tecnologías de Inteligencia Artificial. -- **Unidad 13 - Futuro y tendencias emergentes** : explora las tendencias actuales y las arquitecturas emergentes. Entra en enfoques novedosos como las Redes Retentiva, Hiera, Hyena, I-JEPA y los modelos de visión Retentivos. - -## Conoce a nuestro equipo - -Este curso está hecho por la Comunidad de Hugging Face con 💜! Únete a nosotros añadiendo tu contribución [en GitHub](https://github.com/johko/computer-vision-course). -Nuestra meta era crear un curso de visión artificial que es fácil para principiantes y que se pueda utilizar como un recurso para otros. Más de 60 personas de todo el mundo han unido sus fuerzas para que este proyecto pasase. Aquí les damos crédito: - -**Unidad 1 - Conceptos fundamentales de Visión Artificial** - -- Revisores: [Ratan Prasad](https://github.com/ratan), [Ameed Taylor](https://github.com/atayloraerospace), [Sergio Paniego](https://github.com/sergiopaniego) -- Escritores: [Seshu Pavan Mutyala](https://github.com/seshupavan), [Isabella Bicalho-Frazeto](https://github.com/bellabf), [Aman Kapoor](https://github.com/aman06012003), [Tiago Comassetto Fróes](https://github.com/froestiago), [Aditya Mishra](https://github.com/adityaiiitr), [Kerem Delikoyun](https://github.com/krmdel), [Ker Lee Yap](https://github.com/klyap), [Kathy Fahnline](https://github.com/kfahn22), [Ameed Taylor](https://github.com/atayloraerospace) - -**Unidad 2 - Redes Neuronales Convolucionales (CNNs)** - -- Revisores: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Sezan](https://github.com/sezan92), [Joshua Adrian Cahyono](https://github.com/JvThunder), [Murtaza Nazir](https://github.com/themurtazanazir), [Albert Kao](https://github.com/albertkao227), [Sitam Meur](https://github.com/sitamgithub-MSIT), [Antonis Stellas](https://github.com/AntonisCSt), [Sergio Paniego](https://github.com/sergiopaniego) -- Escritores: [Emre Albayrak](https://github.com/emre570), [Caroline Shamiso Chitongo](https://github.com/ShamieCC), [Sezan](https://github.com/sezan92), [Joshua Adrian Cahyono](https://github.com/JvThunder), [Murtaza Nazir](https://github.com/themurtazanazir), [Albert Kao](https://github.com/albertkao227), [Isabella Bicalho-Frazeto](https://github.com/bellabf), [Aman Kapoor](https://github.com/aman06012003), [Sitam Meur](https://github.com/sitamgithub-MSIT) - -**Unidad 3 - Transformers para Visión (ViTs)** - -- Revisores: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Ameed Taylor](https://github.com/atayloraerospace), [Sezan](https://github.com/sezan92) -- Escritores: [Surya Guthikonda](https://github.com/SuryaKrishna02), [Ker Lee Yap](https://github.com/klyap), [Anindyadeep Sannigrahi](https://bento.me/anindyadeep), [Celina Hanouti](https://github.com/hanouticelina), [Malcolm Krolick](https://github.com/Mkrolick), [Alvin Li](https://github.com/alvanli), [Shreyas Daniel Gaddam](https://shreydan.github.io), [Anthony Susevski](https://github.com/asusevski), [Alan Ahmet](https://github.com/alanahmet), [Ghassen Fatnassi](https://github.com/ghassen-fatnassi) - -**Unidad 4 - Modelos multimodales** - -- Revisores: [Ratan Prasad](https://github.com/ratan), [Snehil Sanyal](https://github.com/snehilsanyal), [Mohammed Hamdy](https://github.com/mmhamdy), [Charchit Sharma](https://github.com/charchit7), [Ameed Taylor](https://github.com/atayloraerospace), [Isabella Bicalho-Frazeto](https://github.com/bellabf) -- Escritores: [Snehil Sanyal](https://github.com/snehilsanyal), [Surya Guthikonda](https://github.com/SuryaKrishna02), [Mateusz Dziemian](https://github.com/mattmdjaga), [Charchit Sharma](https://github.com/charchit7), [Evstifeev Stepan](https://github.com/minemile), [Jeremy Kespite](https://github.com/jeremy-k3/), [Isabella Bicalho-Frazeto](https://github.com/bellabf), [Pedro Gabriel Gengo Lourenco](https://github.com/pedrogengo) - -**Unidad 5 - Modelos generativos** - -- Revisores: [Ratan Prasad](https://github.com/ratan), [William Bonvini](https://github.com/WilliamBonvini), [Mohammed Hamdy](https://github.com/mmhamdy), [Ameed Taylor](https://github.com/atayloraerospace)- -- Escritores: [Jeronim Matijević](github.com/jere357), [Mateusz Dziemian](https://github.com/mattmdjaga), [Charchit Sharma](https://github.com/charchit7), [Muhammad Waseem](https://github.com/hwaseem04) - -**Unidad 6 - Tareas básicas de Visión Artificial** - -- Revisores: [Adhi Setiawan](https://github.com/adhiiisetiawan) -- Escritores: [Adhi Setiawan](https://github.com/adhiiisetiawan), [Bastien Pouëssel](https://github.com/Skower) - -**Unidad 7 - Video y procesamiento de video** - -- Revisores: [Ameed Taylor](https://github.com/atayloraerospace), [Isabella Bicalho-Frazeto](https://github.com/bellabf) -- Escritores: [Diwakar Basnet](https://github.com/DiwakarBasnet), [Chulhwa Han](https://github.com/cjfghk5697), [Woojun Jung](https://github.com/jungnerd), [Jiwook Han](https://github.com/mreraser), [Mingi Kim](https://github.com/1kmmk1) - -**Unidad 8 - Visión para 3D, Renderización y reconstrucción de escenas** - -- Revisores: [Ratan Prasad](https://github.com/ratan), [William Bonvini](https://github.com/WilliamBonvini), [Mohammed Hamdy](https://github.com/mmhamdy), [Adhi Setiawan](https://github.com/adhiiisetiawan), [Ameed Taylor](https://github.com/atayloraerospace0) -- Escritores: [John Fozard](https://github.com/jfozard), [Vasu Gupta](https://github.com/vasugupta9), [Psetinek](https://github.com/psetinek) - -**Unidad 9 - Optimización de modelos** - -- Revisores: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Adhi Setiawan](https://github.com/adhiiisetiawan), [Ameed Taylor](https://github.com/atayloraerospace) -- Escritores: [Adhi Setiawan](https://github.com/adhiiisetiawan) - -**Unidad 10 - Creación de datos sintéticos** - -- Revisores: [Mohammed Hamdy](https://github.com/mmhamdy), [Ameed Taylor](https://github.com/atayloraerospace), [Bhavesh Misra](https://github.com/Zekrom-7780) -- Escritores: [William Bonvini](https://github.com/WilliamBonvini), [Alper Balbay](https://github.com/alperiox), [Madhav Kumar](https://github.com/miniMaddy), [Bhavesh Misra](https://github.com/Zekrom-7780), [Kathy Fahnline](https://github.com/kfahn22) - -**Unidad 11 - Visión Artificial de Zero Shot** - -- Revisores: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Albert Kao](https://github.com/albertkao227), [Isabella Bicalho-Frazeto](https://github.com/bellabf) -- Escritores: [Mohammed Hamdy](https://github.com/mmhamdy), [Albert Kao](https://github.com/albertkao227) - -**Unidad 12 - Ética y sesgo en Visión Artificial** - -- Revisores: [Ratan Prasad](https://github.com/ratan), [Mohammed Hamdy](https://github.com/mmhamdy), [Charchit Sharma](https://github.com/charchit7), [Adhi Setiawan](https://github.com/adhiiisetiawan), [Ameed Taylor](https://github.com/atayloraerospace), [Bhavesh Misra](https://github.com/Zekrom-7780) -- Escritores: [Snehil Sanyal](https://github.com/snehilsanyal), [Bhavesh Misra](https://github.com/Zekrom-7780) - -**Unidad 13 - Futuro y tendencias emergentes** - -- Revisores: [Ratan Prasad](https://github.com/ratan), [Ameed Taylor](https://github.com/atayloraerospace), [Mohammed Hamdy](https://github.com/mmhamdy) -- Escritores: [Farros Alferro](https://github.com/farrosalferro), [Mohammed Hamdy](https://github.com/mmhamdy), [Louis Ulmer](https://github.com/lulmer), [Dario Wisznewer](https://github.com/dariowsz), [gonzachiar](https://github.com/gonzachiar) - -**Equipo de organización** -[Merve Noyan](https://github.com/merveenoyan), [Adam Molnar](https://github.com/lunarflu), [Johannes Kolbe](https://github.com/johko) - -Nos encanta tenerte aquí, vamos a empezar!