🎯 Missão: Arquitetar soluções de dados escaláveis e de alto desempenho que transformem dados em inteligência estratégica.
Profissional de TI com 10+ anos de experiência, sendo 7+ anos dedicados à Engenharia de Dados em ambientes Cloud e On-Premises com foco em Microsoft Azure. Especialista em arquitetura de dados moderna (Data Lakehouse, DataMesh, Medallion Architecture), processamento distribuído com Databricks e Spark (PySpark, SQL) e automação de pipelines ETL/ELT escaláveis, sustentando soluções de alto desempenho com governança de dados corporativa.
|
Data Lakehouse |
Azure |
|
Spark |
Unity Catalog |
|
ETL/ELT |
Terraform |
10+ anos em TI | 7+ anos em Data Engineering | 6+ empresas | Múltiplas indústrias
Arquitetura & Migração:
- Executei migração estratégica de infraestrutura entre Azure Tenants, consolidando ecossistemas complexos (ADF, dbt, Snowflake, Airflow) para Azure Databricks
- Implementei e sustentei Unity Catalog para garantir governança, disponibilidade e segurança em arquitetura Data Mesh
Performance & Otimização de Custo:
- Viabilizei redução de 95% no tempo de processamento através de técnicas avançadas de otimização (Shuffle, Spill, Caching)
- Redução de 70% nos custos de computação + 45% adicional via Cluster Sizing inteligente
Engenharia de Pipelines (ETL/ELT/ELTL):
- Desenvolvi fluxos de ingestão de larga escala para Arquitetura Medallion, manipulando dados relacionais e não-relacionais (MongoDB, Neo4J, Postgres)
- Implementei padrões com Spark (PySpark/SQL) e frameworks como Auto Loader
Streaming & Mensageria:
- Construção de processos de ingestão em tempo real com Kafka, Event Hub, RabbitMQ
- Aplicação de padrões CDC/CDF para integridade de dados em cenários complexos
Infraestrutura como Código & DevOps:
- Scripts Terraform para automação de infraestrutura
- Pipelines CI/CD em Azure DevOps para deploy automatizado de schemas, volumes e configurações
Data Quality & Governança:
- KPIs de qualidade (Freshness, Integrity) com dashboards de governança (lvdash)
- Automação de monitoramento de custos e falhas via Power Automate e Webhooks (Teams/Slack)
Mentoria & Documentação:
- Nivelamento técnico de profissionais através de avaliação em cases de entrevista
- Elaboração de documentação técnica no Confluence
- Apoio em campanhas internas de certificação Azure e Databricks
Stack: Databricks, Python, PySpark/Spark SQL, Azure Data Factory, Power BI, Azure DevOps, Kafka/Event Hub/RabbitMQ, CosmosDB, MongoDB, APIs REST
- Colaboração na especificação de requisitos e criação de ambientes de dados focados em arquitetura big data
- Execução de pipelines ETL/ELT em Azure: Data Factory, Databricks, Synapse Analytics, Azure DevOps
- Codificação de projetos on-premise para cloud, armazenamento em camadas Raw, Trusted, Refined, Serving
- Processamento com Spark (PySpark/SparkSQL) aplicando modelagem dimensional
- Sustentação e melhorias em Self-Service BI com Analysis Services, Tabular Studio, ALM Toolkit, Dax Studio, Bravo for Power BI
Stack: Azure Data Factory, Azure Data Lake Storage Gen2, Azure Databricks, Azure Synapse, Azure SQL Database, Azure DevOps, Azure Analysis Services, Power BI, Dax Studio, Tabular Studio, ALM Toolkit
- Execução de processos ETL (Pentaho, SSIS, Power Query) de diversas fontes (APIs, bancos relacionais) com modelagem dimensional
- Tuning em bancos de dados SQL On-Premises e Azure SQL
- Documentação e melhorias em processos de governança de dados
- Camada semântica e ambiente Self-Service BI com Power BI e Tableau
- Implantação de melhorias em sistemas Jira, Protheus, Salesforce com foco em KPIs
- Criação de dashboards para acompanhamento de projetos (saving, SLAs, satisfação)
Stack: Power BI, Tableau, SQL Server, SSIS, Pentaho, Power Query, Python
- Criação de relatórios com SQL, MySQL, JQL
- Integração de APIs e cruzamento de informações com sistemas internos e Receita Federal (importação/exportação)
- Refatoramento de dashboards Qlik View → Power BI
- Implementação de ETL com Pentaho Data Integration e Power Query
- Mapeamento de requisitos para Data Marts e Data Warehouse
- Levantamento de requisitos com metodologias: Discovery, Design Thinking, Lean Inception, Scrum
- Melhorias de processo e automação de obtenção de dados orientada ao usuário final
- Colaboração com times de Ciência de Dados e Aquisição de Dados
Stack: SQL, MySQL, Oracle, Power BI, Tableau, Qlik View, Pentaho, Power Query, Python
- Manipulação de dados com SGBD SQL Server
- Mapeamento de processos educacionais, financeiros, contábeis e workflow
- Geração de análises e relatórios para níveis operacional, gerencial e executivo
- Integração de layouts bancários e empresas de cobrança
- Criação de RM Reports e customização do ERP RM TOTVS
- Tuning de bancos de dados (Stored Procedures, Triggers, Functions)
- Parametrização e homologação de releases do ERP RM TOTVS
- Projetos e rotinas de BI com Good Data e Power BI
Stack: SQL Server, RM TOTVS, Good Data, Power BI, T-SQL
🏢 FIT Networks Tecnologia em Informática e Telecomunicações | Assistente de Telecomunicações (Janeiro 2017 - Setembro 2018 | 1a 9m)
- Suporte técnico à infraestrutura de provedores de internet
- Preparação de ambientes para treinamentos (baixa, média e alta complexidade)
- Análise de projetos de redes: FTTH, FTTX, FTTC
- Criação de indicadores internos conforme ISO 9001
- Configurações de equipamentos: OLTs, ONUs, Switches, Roteadores Mikrotik, Servidores
- Apoio técnico ao time comercial (pré-venda)
- Elaboração e sustentação de manuais técnicos com LaTeX
- Sustentação do sistema Protheus
Stack: Mikrotik, OLT/ONU, Switches, Protheus, LaTeX
- Execução de processos acadêmicos e financeiros
- Análise de indicadores da central de serviços compartilhados
- Interação com setores: atendimento, contábil, registro de diplomas
- Pesquisas por melhorias contínuas dos processos educacionais
- Suporte interno aos usuários
- Manutenção de hardwares, ramais, configurações VoIP e switches gerenciáveis
- Integração de novos colaboradores com políticas de segurança
- Projetos wireless: instalação de access points Ubiquiti e Aerohive
- Projetos de cabeamento estruturado em todas as unidades
- Suporte interno ao usuário
- Gerenciamento de acessos: Active Directory, Servidores de Diretório
- Manutenção de servidores e rotinas de backup
- Data Lakehouse (Medallion Architecture)
- Data Mesh patterns
- ETL/ELT/ELTL workflows
- CDC/CDF (Change Data Capture/Feed)
- Unity Catalog & Governance
- Self-Service BI
- Data Quality (Freshness, Integrity)
- Performance Optimization (Shuffle, Spill, Caching)
| 🎓 Nível | 📚 Curso | 🏫 Instituição | 📅 Período | ✅ Status |
|---|---|---|---|---|
| MBA | Engenharia de Dados e Inteligência Artificial | Xperiun | 2026 - 2027 | 🔄 Em Curso |
| MBA | Business Intelligence & Analytics | Xperiun | 2025 - 2026 | ✅ Concluído |
| Pós-Grad | Modelagem em C&T | UNIFAL-MG & CEFET-MG | 2018 - 2020 | ✅ Concluído |
| Graduação | Análise e Dev de Sistemas | UNIS | 2016 - 2018 | 🏅 Honra ao Mérito |
| Técnico | Redes de Computadores | UNIS | 2014 - 2015 | ✅ Concluído |
| Prof. | Assistente Administrativo | UNIS | 2015 - 2016 | ✅ Concluído |
ERP & CRM:
- ERP Protheus | RM Totvs | Salesforce | ABADI/JDE
Atlassian Suite:
- Jira Service Desk | Jira Software | Jira Cloud
Outros Sistemas:
- Kenoby | Qulture Rocks | Siscomex | Mercante
- Capacidade de atuação em diversas frentes (Multitask)
- Pensamento crítico
- Autonomia e criatividade
- Prazer em compartilhar conhecimento
IT professional with 10+ years of experience, with 7+ years dedicated to Data Engineering in Cloud and On-Premises environments with focus on Microsoft Azure. Specialist in modern data architecture (Data Lakehouse, DataMesh, Medallion Architecture), distributed processing with Databricks and Spark (PySpark, SQL), and automation of scalable ETL/ELT pipelines, supporting high-performance solutions with corporate data governance.
Technical expertise:
- 🏗️ Modern data architecture (Data Lakehouse, Data Mesh, Medallion)
- ☁️ Cloud data engineering with Azure, Databricks, Snowflake
- ⚡ Distributed processing: Spark, PySpark, Apache Airflow
- 🔧 Advanced orchestration: Azure Data Factory, Databricks Workflows, Airflow
- 📊 Relational and dimensional modeling for Data Warehouse
- 🎯 Performance and cost optimization in Big Data environments
- 🔐 Data governance: Unity Catalog, Data Mesh patterns
- 🚀 DevOps & IaC: Terraform, Azure DevOps, CI/CD, GitHub
Architect and implement scalable data solutions with high performance and robust governance, transforming raw data into strategic business intelligence.
📈 Main Languages:
- Python | T-SQL | PySpark | SQL | DAX | Power Query
⭐ Check my portfolio: github.com/AfonsoFeliciano
Architecture & Migration:
- Executed strategic infrastructure migration between Azure Tenants, consolidating complex ecosystems (ADF, dbt, Snowflake, Airflow) to Azure Databricks
- Implemented and sustained Unity Catalog ensuring governance, availability, and security in Data Mesh architecture
Performance & Cost Optimization:
- Achieved 95% reduction in processing time through advanced optimization techniques (Shuffle, Spill, Caching)
- 70% reduction in compute costs + 45% additional savings via intelligent Cluster Sizing
Pipeline Engineering (ETL/ELT/ELTL):
- Developed large-scale ingestion flows for Medallion Architecture handling relational and non-relational data (MongoDB, Neo4J, Postgres)
- Implemented patterns with Spark (PySpark/SQL) and frameworks like Auto Loader
Streaming & Messaging:
- Built real-time ingestion processes with Kafka, Event Hub, RabbitMQ
- Applied CDC/CDF patterns for data integrity in complex scenarios
Infrastructure as Code & DevOps:
- Terraform scripts for infrastructure automation
- CI/CD pipelines in Azure DevOps for automated schema, volume, and configuration deployments
Data Quality & Governance:
- Quality KPIs (Freshness, Integrity) with governance dashboards (lvdash)
- Cost and failure monitoring automation via Power Automate and Webhooks (Teams/Slack)
Mentoring & Documentation:
- Technical upskilling through interview case evaluations
- Technical documentation in Confluence
- Support for Azure and Databricks certification campaigns
Stack: Databricks, Python, PySpark/Spark SQL, Azure Data Factory, Power BI, Azure DevOps, Kafka/Event Hub/RabbitMQ, CosmosDB, MongoDB, REST APIs
- Collaboration on requirements specification and big data architecture environment design
- ETL/ELT pipeline execution: Data Factory, Databricks, Synapse Analytics, Azure DevOps
- On-premise to cloud migration with layered storage: Raw, Trusted, Refined, Serving
- Spark (PySpark/SparkSQL) processing with dimensional modeling
- Self-Service BI improvements with Analysis Services, Tabular Studio, ALM Toolkit, Dax Studio, Bravo for Power BI
Stack: Azure Data Factory, Azure Data Lake Storage Gen2, Azure Databricks, Azure Synapse, Azure SQL Database, Azure DevOps, Azure Analysis Services, Power BI, Dax Studio
- ETL process execution (Pentaho, SSIS, Power Query) from various sources (APIs, relational databases) with dimensional modeling
- SQL On-Premises and Azure SQL tuning
- Data governance documentation and improvements
- Semantic layer and Self-Service BI environment with Power BI and Tableau
- System improvements in Jira, Protheus, Salesforce with KPI focus
- Dashboard creation for project tracking (savings, SLAs, satisfaction)
Stack: Power BI, Tableau, SQL Server, SSIS, Pentaho, Power Query, Python
- Report creation with SQL, MySQL, JQL
- API integration and data correlation with internal systems and Federal Revenue (import/export)
- Dashboard refactoring Qlik View → Power BI
- ETL implementation with Pentaho Data Integration and Power Query
- Data Marts and Data Warehouse requirements mapping
- Requirements gathering with methodologies: Discovery, Design Thinking, Lean Inception, Scrum
- Process improvements and user-focused data automation
- Collaboration with Data Science and Data Acquisition teams
Stack: SQL, MySQL, Oracle, Power BI, Tableau, Qlik View, Pentaho, Power Query, Python
- Data manipulation with SQL Server SGBD
- Educational, financial, accounting, and workflow process mapping
- Report generation for operational, managerial, and executive levels
- Banking and collection company integration
- RM Reports creation and RM TOTVS ERP customization
- Database tuning (Stored Procedures, Triggers, Functions)
- ERP RM TOTVS parametrization and release homologation
- BI projects with Good Data and Power BI
Stack: SQL Server, RM TOTVS, Good Data, Power BI, T-SQL
🏢 FIT Networks Tecnologia em Informática e Telecomunicações | Telecom Assistant (January 2017 - September 2018 | 1y 9m)
- Technical support for Internet Provider infrastructure
- Environment preparation for trainings (low, medium, and high complexity)
- Network project analysis: FTTH, FTTX, FTTC
- Internal indicator creation per ISO 9001
- Equipment configuration: OLTs, ONUs, Switches, Mikrotik Routers, Servers
- Commercial team technical support (pre-sales)
- Technical manual elaboration with LaTeX
- Protheus system support
Stack: Mikrotik, OLT/ONU, Switches, Protheus, LaTeX
- Academic and financial process execution
- Shared services center indicators analysis
- Interaction with: customer service, accounting, diploma registration sectors
- Continuous process improvement research
- Internal user support
- Hardware maintenance, phone configuration, VoIP, and manageable switches
- New employee integration with security policies
- Wireless projects: Ubiquiti and Aerohive access point installation
- Structured cabling projects across all units
- Internal user support
- Access management: Active Directory, Directory Servers
- Server maintenance and backup routines
ERP & CRM:
- ERP Protheus | RM Totvs | Salesforce | ABADI/JDE
Atlassian Suite:
- Jira Service Desk | Jira Software | Jira Cloud
Other Systems:
- Kenoby | Qulture Rocks | Siscomex | Mercante
| 🎓 Level | 📚 Course | 🏫 Institution | 📅 Period | ✅ Status |
|---|---|---|---|---|
| MBA | Data Engineering & Artificial Intelligence | Xperiun | 2026 - 2027 | 🔄 In Progress |
| MBA | Business Intelligence & Analytics | Xperiun | 2025 - 2026 | ✅ Completed |
| Post-Grad | Scientific & Technological Modeling | UNIFAL-MG & CEFET-MG | 2018 - 2020 | ✅ Completed |
| Bachelor | Systems Analysis & Development | UNIS | 2016 - 2018 | 🏅 Merit Award |
| Technical | Computer Networks | UNIS | 2014 - 2015 | ✅ Completed |
| Prof. | Administrative Assistant | UNIS | 2015 - 2016 | ✅ Completed |
- Multitasking ability
- Critical thinking
- Autonomy and creativity
- Knowledge sharing passion
- Modern layout defined (sections, icons, badges, colors)
- Professional experiences highlighted
- Technical skills listed
- Bilingual sections created (Portuguese & English)
- Language switcher implemented
- Badges and shields added
- Professional profiles linked
- Additional certifications to be documented
- Custom projects section (coming soon)
- Blog/Articles section (coming soon)
- Advanced Azure Data Engineering patterns
- Databricks Delta Lake optimization
- AI/ML integration in data pipelines
- Cloud-native architecture design
Let's collaborate! Feel free to reach out! 🤝
Last updated: February 22, 2026


