Una solución de IA para resolver problemas de negocio, optimizando la productividad del área jurídica en el Banco XYZ.
Jurid-IA es un asistente de inteligencia artificial diseñado para actuar como un punto único de acceso al vasto conocimiento organizacional del Banco XYZ. Esta solución aborda un desafío crítico en el área jurídica: la necesidad de consultar rápidamente extensos volúmenes de documentos, como contratos, reglamentos internos y políticas, además de resolver dudas ofimáticas comunes que generaban largos tiempos de espera con el soporte de TI.
El área jurídica del Banco XYZ enfrentaba dos grandes cuellos de botella en su productividad:
- Consulta Documental Ineficiente: Los abogados y analistas debían invertir una cantidad considerable de tiempo en la lectura y búsqueda de información específica dentro de documentos largos y complejos.
- Alta Dependencia de TI: Para resolver incidentes menores de ofimática, el equipo debía generar tickets y esperar el cumplimiento de SLAs de varios días, interrumpiendo su flujo de trabajo.
Como resultado, se desarrolló Jurid-IA, un chatbot de IA entrenado a medida con todos los documentos relevantes. El impacto fue directo: un aumento del 40% en la productividad del área, transformando su manera de trabajar.
La solución se fundamenta en una arquitectura moderna de Generación Aumentada por Recuperación (RAG), orquestada con el framework LangChain para garantizar un flujo de datos coherente y eficiente.
El flujo de trabajo es el siguiente:
- Fuentes de Datos (Data Sources): La información se extrae de diversas fuentes como ITSM Bank, MongoDB y Blob Storage.
- ETL con Apache Airflow: Un pipeline automatizado con Airflow se encarga de extraer, transformar y cargar (ETL) los documentos. Estos se procesan y dividen en fragmentos manejables (chunks).
- Generación de Embeddings: Los chunks de texto son procesados por el modelo
text-embedding-3-smallde OpenAI para convertirlos en vectores numéricos (embeddings). - Base de Datos Vectorial (Vector Store): Los embeddings se almacenan y se indexan en Pinecone, una base de datos vectorial optimizada para búsquedas de similitud semántica a alta velocidad.
- Interfaz de Usuario (Gradio): El usuario final interactúa con un chatbot a través de una interfaz web creada con Gradio.
- Proceso RAG:
- Cuando un usuario envía una pregunta, LangChain la utiliza para consultar el índice de Pinecone.
- Pinecone devuelve los fragmentos de documentos más relevantes semánticamente (el "contexto").
- El prompt final, que incluye la pregunta original y el contexto recuperado, se envía al modelo de lenguaje
gpt-4o-minide OpenAI.
- Respuesta: El LLM genera una respuesta precisa y contextualizada, que se muestra al usuario en la interfaz de chat.
- Orquestación de IA: LangChain
- Modelos de Lenguaje (LLM): OpenAI GPT-4o-mini, Text-embedding-3-small
- Base de Datos Vectorial: Pinecone
- Pipeline de Datos (ETL): Apache Airflow
- Interfaz de Usuario: Gradio
- Lenguaje de Programación: Python
- Fuentes de Datos: MongoDB, Blob Storage, ITSM

