Skip to content

Latest commit

 

History

History
50 lines (38 loc) · 3.04 KB

File metadata and controls

50 lines (38 loc) · 3.04 KB

AI System Integration & Observability 🏗️🔍

Этот проект демонстрирует сдвиг парадигмы от Model-Centric AI (обучение моделей) к System-Centric AI (интеграция и оценка готовых модулей). Это базовый шаблон для современного AI-инженера.

🚀 Концепция: AI Engineer vs Data Scientist

Характеристика Data Scientist (Традиционный) AI Engineer (Современный)
Фокус Обучение модели (model.fit()) Архитектура системы и промпты
Инструменты PyTorch, Scikit-learn, CUDA LLMs, Vector DBs, Orchestration
Задача Минимизация Loss-функции Решение бизнес-задачи модулями
Качество Валидация на тренировочных сетах Evaluations (Evals) в реальном времени

🛠 Технологический стек

  • Engine: Hugging Face Transformers (DistilBERT для анализа тональности).
  • Observability: MLflow для трассировки и логирования оценок (Evals).
  • Testing: pytest для гарантии работоспособности связок модулей.

📁 Структура проекта

  • app.py: Инкапсуляция готового модуля. Мы не обучаем его, а управляем его входами и выходами.
  • evaluator.py: Сердце MLOps-процесса. Скрипт прогоняет "золотой набор" данных через систему и фиксирует метрики качества (accuracy, F1) в MLflow.
  • tests/: Автоматические проверки интеграции.

🏁 Быстрый запуск

  1. Установка зависимостей:

    pip install -r requirements.txt
  2. Запуск системы оценки (Evals): Прогоните готовый модуль через набор тестов и запишите результат в базу знаний:

    python evaluator.py
  3. Интерактивный режим (Чат с Моделью): Запустите основной файл приложения для проверки произвольных фраз:

    python app.py

    Все введённые вами фразы и оценки ИИ будут автоматически записаны в базу MLflow в эксперимент AI_System_Interactive_Sessions.

  4. Анализ результатов: Запустите дашборд MLflow, чтобы сравнить текущую версию системы с предыдущими:

    mlflow ui --backend-store-uri ./mlruns