CI&T Software S.A.
Data & AI Manager
Job Location
Região Geográfica Intermediária de Campinas, Brazil
Job Description
Overview Somos especialistas em transformação tecnológica , unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 7 .400 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1.000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade. Importante : se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente. Buscamos uma liderança sênior, hands-on, para integrar nosso time de dados CI&T e liderá-lo na construção de um ecossistema de dados moderno, orientado a produto e a plataforma. Você atuará diretamente com a média e alta gestão, traduzindo necessidades de negócio em arquiteturas e capacidades reutilizáveis, combinando governança como plataforma, Policy-as-Code, Lakehouse/Event-Driven e uso de GenAI para acelerar Data Discovery, Data Quality, Compliance e adoção. Responsabilidades Liderar e desenvolver o time, promovendo boas práticas de engenharia e cultura de Data as a Product (domain ownership, SLOs/SLIs). Projetar e implementar pipelines de dados complexos (batch e streaming), com automação, orquestração e otimização de ETL/ELT. Desenvolver transformações em Python/PySpark e SQL, com testes automatizados (PyTest) e padrões de engenharia. Assegurar Data Quality de ponta a ponta: testes como código, SLOs/SLIs de datasets, alerta proativo e automação de remediação. Desenhar o blueprint de plataforma: Metadata-first, Lineage, Policy-as-Code, Data Catalog/Discovery, Semantic Layer, observabilidade. Incorporar GenAI no fluxo: copilotos para catálogo e documentação, Sensitive Data Classification (PII), geração assistida de políticas e testes, Change Intelligence (impact summaries). Colaborar com equipes multidisciplinares (dados, produto, segurança, compliance, negócio), traduzindo requisitos de negócio em soluções técnicas escaláveis e mensuráveis. Conduzir decisões de arquitetura (Lakehouse, Delta/Parquet, real-time com Pub/Sub/Kafka, microservices) com foco em escalabilidade, custo e segurança. Operar mecanismos de Compliance “always-on” (LGPD/PII): classificação, mascaramento, access control contextual e rastreabilidade ponta a ponta. Integrar a plataforma com o ecossistema corporativo (APIs, eventos, legados/SaaS), garantindo performance e confiabilidade. Implantar versionamento, CI/CD e IaC (Git/Azure DevOps) para reprodutibilidade e menor time-to-data. Interagir com a alta gestão, apresentar roadmaps, riscos e resultados; definir e acompanhar OKRs/métricas (adoção, lead time, incidentes, risco residual). Evangelizar e gerir a mudança para aumentar adoção e valor de negócio. Experiências necessárias Experiência sólida construindo pipelines de dados com Python, PyTest, PySpark e SQL. Experiência sólida em Google Cloud Platform (BigQuery, Dataproc, Dataflow, Pub/Sub, Composer/Airflow, IAM). Experiência sólida com ferramentas de orquestração (Airflow/Composer, Dagster, Prefect). Experiência com Databricks em pipelines complexos (Delta Lake, Jobs/Workflows, Unity Catalog). Vivência com bancos relacionais e não relacionais, incluindo schema design e query optimization. Experiência em arquitetura de microservices e integrações corporativas (REST/GraphQL, event-driven). Proficiência em Git/Azure DevOps para versionamento, CI/CD e colaboração. Vivência prática em Data Governance operacional: Metadata, Lineage, Data Catalog/Discovery, Data Quality, Security & Access. Experiência liderando times técnicos e interagindo com executivos, com forte comunicação e influência. Sólida compreensão de Security, Privacy e Compliance (LGPD) aplicados a dados. Capacidade de decisões de arquitetura com foco em custo/eficiência (FinOps), escalabilidade e confiabilidade. Graduação em Ciência da Computação, Engenharia de Software, Sistemas de Informação ou áreas correlatas. Experiência prévia sênior em engenharia de dados e projetos com GCP. Certificações: Google Professional Data Engineer/Cloud Architect; Databricks (Data Engineer Professional); Airflow/Dagster; segurança. Ferramentas de Data Quality/Observability (Great Expectations, Soda, Monte Carlo) e de Metadados/Catálogo (DataHub, Collibra, Atlan). Vivência com Policy-as-Code e governança (OPA, Ranger, BigQuery policies, DLP, mascaramento/tokenização). Conhecimento de Semantic Layer e métricas (Looker semantic model, dbt/metrics). Experiência com GenAI/ML em dados (Vertex AI, embeddings/RAG para Discovery, assistentes internos). Experiência em Data Mesh e estratégias de dados como produto em grandes organizações. Benefícios Plano de saúde e odontológico; Vale alimentação e refeição; Licença parental estendida; Parceria com academias e profissionais de saúde e bem-estar via Wellhub (Gympass) TotalPass; Participação nos Lucros e Resultados (PLR); Plataforma de aprendizagem contínua (CI&T University); Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar; Curso gestante e parentalidade responsável; Na CI&T, a inclusão começa no primeiro contato. Se você é pessoa com deficiência, é importante apresentar o seu laudo durante o processo seletivo. Assim, podemos garantir o suporte e as adaptações que você merece. Se ainda não tem o laudo caracterizador, não se preocupe: podemos te apoiar para obtê-lo. Temos um time dedicado de Saúde e Bem-estar, especialistas em inclusão e grupos de afinidade que estarão com você em todas as etapas. Conte com a gente para fazer essa jornada lado a lado. J-18808-Ljbffr
Location: Região Geográfica Intermediária de Campinas, São Paulo, BR
Posted Date: 11/3/2025
Location: Região Geográfica Intermediária de Campinas, São Paulo, BR
Posted Date: 11/3/2025
Contact Information
| Contact | Human Resources CI&T Software S.A. |
|---|