Skip to content

Una solución de IA para resolver problemas de negocio, optimizando la productividad del área jurídica en el Banco XYZ.

Notifications You must be signed in to change notification settings

CD-AC/AIEngennier-Jurid_IA

Repository files navigation

⚖️ Jurid-IA: Asistente Jurídico Inteligente

Una solución de IA para resolver problemas de negocio, optimizando la productividad del área jurídica en el Banco XYZ.

Demo de Jurid-IA

Demostración de la interfaz de Jurid-IA en acción.

Descripción del Proyecto

Jurid-IA es un asistente de inteligencia artificial diseñado para actuar como un punto único de acceso al vasto conocimiento organizacional del Banco XYZ. Esta solución aborda un desafío crítico en el área jurídica: la necesidad de consultar rápidamente extensos volúmenes de documentos, como contratos, reglamentos internos y políticas, además de resolver dudas ofimáticas comunes que generaban largos tiempos de espera con el soporte de TI.

El Problema de Negocio

El área jurídica del Banco XYZ enfrentaba dos grandes cuellos de botella en su productividad:

  • Consulta Documental Ineficiente: Los abogados y analistas debían invertir una cantidad considerable de tiempo en la lectura y búsqueda de información específica dentro de documentos largos y complejos.
  • Alta Dependencia de TI: Para resolver incidentes menores de ofimática, el equipo debía generar tickets y esperar el cumplimiento de SLAs de varios días, interrumpiendo su flujo de trabajo.

Como resultado, se desarrolló Jurid-IA, un chatbot de IA entrenado a medida con todos los documentos relevantes. El impacto fue directo: un aumento del 40% en la productividad del área, transformando su manera de trabajar.

Arquitectura de la Solución

La solución se fundamenta en una arquitectura moderna de Generación Aumentada por Recuperación (RAG), orquestada con el framework LangChain para garantizar un flujo de datos coherente y eficiente.

Diagrama de la Arquitectura de Jurid-IA

El flujo de trabajo es el siguiente:

  1. Fuentes de Datos (Data Sources): La información se extrae de diversas fuentes como ITSM Bank, MongoDB y Blob Storage.
  2. ETL con Apache Airflow: Un pipeline automatizado con Airflow se encarga de extraer, transformar y cargar (ETL) los documentos. Estos se procesan y dividen en fragmentos manejables (chunks).
  3. Generación de Embeddings: Los chunks de texto son procesados por el modelo text-embedding-3-small de OpenAI para convertirlos en vectores numéricos (embeddings).
  4. Base de Datos Vectorial (Vector Store): Los embeddings se almacenan y se indexan en Pinecone, una base de datos vectorial optimizada para búsquedas de similitud semántica a alta velocidad.
  5. Pinecone Vector Store
  6. Interfaz de Usuario (Gradio): El usuario final interactúa con un chatbot a través de una interfaz web creada con Gradio.
  7. Proceso RAG:
    • Cuando un usuario envía una pregunta, LangChain la utiliza para consultar el índice de Pinecone.
    • Pinecone devuelve los fragmentos de documentos más relevantes semánticamente (el "contexto").
    • El prompt final, que incluye la pregunta original y el contexto recuperado, se envía al modelo de lenguaje gpt-4o-mini de OpenAI.
  8. Respuesta: El LLM genera una respuesta precisa y contextualizada, que se muestra al usuario en la interfaz de chat.

Stack Tecnológico

  • Orquestación de IA: LangChain
  • Modelos de Lenguaje (LLM): OpenAI GPT-4o-mini, Text-embedding-3-small
  • Base de Datos Vectorial: Pinecone
  • Pipeline de Datos (ETL): Apache Airflow
  • Interfaz de Usuario: Gradio
  • Lenguaje de Programación: Python
  • Fuentes de Datos: MongoDB, Blob Storage, ITSM

About

Una solución de IA para resolver problemas de negocio, optimizando la productividad del área jurídica en el Banco XYZ.

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors