PACOTE DE SERVIÇOS

Esteira de
MLOps

AUTORES

Lucas Lascasas

DATA

22 de Abril de 2026

INTRODUÇÃO

O que é o MLOps?

A gestão de modelos de machine learning requer o constante treinamento e aprimoramento dos algoritmos utilizados. Essa gestão pode consumir muito tempo, especialmente sem uma esteira de automação. A esteira de MLOps realiza o processo completo, desde a ingestão até o provisionamento de um endpoint de inferência para que os cientistas de dados foquem em novos modelos e não no retreino de modelos em produção.

CONTEXTO

Quando usar uma esteira de MLOps?

A esteira de MLOps é utilizada quando se tem um modelo de IA tradicional ou machine learning em produção que necessita de treinamento constante. Alguns casos de uso incluem forecast, detecção de fraudes, moderação de conteúdo, sistemas de recomendação, dentre outros. Todo tipo de modelo que necessita de um processo de treinamento ou data fit se beneficia de uma esteira de MLOps.

SOLUÇÃO

Arquitetura de uma Esteira de MLOps

A figura abaixo ilustra um escopo macro da esteira de MLOps:

Arquitetura de Esteira de MLOps na AWS
  • Ingestão: Na ingestão, os dados que vão alimentar o modelo, possivelmente vindos de um Data Lake, são trazidos para um armazenamento bruto dentro do ambiente da esteira no S3 via Lambda.
  • Modelagem: Essa camada aplica as regras de negócio e técnicas sobre os dados para preparo dos mesmos para o treinamento de modelos via Sagemaker Processing Jobs. Finalmente, os datasets de treino e teste são criados e armazenados no S3.
  • Treino: Nessa camada da esteira, os dados de treino são usados para treinamento via Sagemaker Training Job e os dados de teste são usados para avaliar o modelo pelo Batch Transform ou Processing Job. O artefato do modelo recém-treinado é armazenado no S3.
  • Build: Nessa etapa, o CodeBuild é utilizado para gerar uma imagem ECR do modelo a partir do seu artefato, deixando-o pronto para entrar em produção.
  • Inferência: Após o modelo ser aprovado de forma programática por API ou automática, um Endpoint Serverless do Sagemaker hospeda o modelo, que pode ser exposto pelo API Gateway.
  • Gestão: Na camada de gestão, o EventBridge funciona como gatilho para o início do processo de retreino, que é orquestrado pelo StepFunctions. Todos os logs são observados no CloudWatch e os dados experimentais, artefatos e endpoint podem ser validados e testados no Sagemaker Notebook.
  • Segurança: Finalmente, todos os acessos são controlados no IAM (Identity and Access Management) e os dados e artefatos são criptografados no KMS (Key Management Service).

REQUISITOS

O que preciso ter para começar uma esteira de MLOps?

Para começar a desenvolver a sua esteira de MLOps na Lascasas Consulting é simples! Separe:

  • Fontes de dados a serem usadas;
  • Acessos aos dados (usuários de banco, cofre de senhas, chaves de API, etc);
  • Acesso à conta AWS para implantação da esteira de MLOps;
  • Repositório Git para a esteira;
  • Definição da modelagem e treinamento do modelo piloto.

MODUS OPERANDI

Como é o projeto de MLOps?

No projeto de MLOps, iremos construir uma esteira de CI/CD para entrega da esteira como código. Assim, o primeiro passo é a fundação da estrutura. Em seguida, uma carga inicial é feita nos dados para construção dos processos de treinamento. Com os dados carregados, o script de modelagem é montado, gerando os datasets de treino e teste. Com o script de treinamento, a fase de treino e teste é construída. Depois do deploy, uma carga de testes é feita na API para garantir seu funcionamento.

PRÓXIMOS PASSOS

Como iniciar meu projeto?

Leia mais sobre um estudo de caso da estrutura de MLOps na AWS:

Escolha um pacote apropriado para a sua demanda de machine learning: