YoVDO

AWS ML Engineer Associate 4.1 Monitoramento do desempenho do modelo e da qualidade dos dados (Português) | AWS ML Engineer Associate 4.1 Monitor Model Performance and Data Quality (Portuguese)

Offered By: Amazon Web Services via AWS Skill Builder

Tags

Machine Learning Courses Amazon Web Services (AWS) Courses Amazon SageMaker Courses

Course Description

Overview

Save Big on Coursera Plus. 7,000+ courses at $160 off. Limited Time Only!

Neste curso, você aprenderá técnicas para monitorar e manter o desempenho e a confiabilidade de suas soluções de machine learning (ML) usando os recursos de monitoramento do Amazon SageMaker. Você começará estabelecendo a importância do monitoramento e os tipos de desvio no ML. Em seguida, você descobrirá métodos para detectar desvio de dados, problemas de qualidade do modelo, viés estatístico e desvio na designação de atributos. Você explorará o SageMaker Model Monitor para monitoramento contínuo, o SageMaker Clarify para detectar vieses e fornecer explicações interpretáveis e o SageMaker Model Dashboard para visualizar e analisar métricas de desempenho. 

Este curso compartilha as práticas recomendadas para ajudar você a criar e manter soluções de ML confiáveis, de alto desempenho e que se alinham aos princípios de design da Lente de Machine Learning do AWS Well-Architected. Você aprenderá abordagens para tomada de decisão proativa, correção automatizada, notificações e fluxos de trabalho de retreinamento, que ajudarão a manter suas soluções de ML eficazes ao longo do tempo.

  • Nível do curso: avançado
  • Duração: 2 horas e 30 minutos


Observação: Este curso tem transcrições/legendas traduzidas. A narração está em inglês. Para exibir as legendas, clique no botão CC no canto inferior direito do player.


Atividades

  • Materiais on-line
  • Exercícios
  • Perguntas de teste de conhecimento


Objetivos do curso

  • Descrever os princípios de design da Lente de Machine Learning do AWS Well-Architected para monitoramento.
  • Identificar as práticas recomendadas para monitorar a qualidade dos dados e o desempenho do modelo.
  • Usar o SageMaker Model Monitor para monitorar continuamente modelos em produção em busca de problemas de desvio de dados e qualidade do modelo.
  • Explicar como o Amazon SageMaker Clarify pode detectar o viés do modelo e fornecer explicações interpretáveis.
  • Descrever os benefícios e os casos de uso do SageMaker Clarify para monitoramento de atribuição.
  • Descrever os benefícios de monitorar o desempenho do modelo na produção usando testes A/B.
  • Explicar os principais recursos e os casos de uso comuns do SageMaker Model Dashboard.
  • Identificar problemas de forma proativa monitorando as soluções de ML e implementando fluxos de trabalho automatizados de correção, notificações e retreinamento.


Público-alvo

  • Arquitetos de nuvem
  • Engenheiros de machine learning


Habilidades recomendadas

  • Ter pelo menos um ano de experiência com o uso da solução SageMaker e outros serviços da AWS para engenharia de ML
  • Ter pelo menos um ano de experiência em uma função relacionada, como desenvolvedor de software de back-end, desenvolvedor de DevOps, engenheiro de dados ou cientista de dados
  • Uma compreensão fundamental de linguagens de programação como Python
  • Ter concluído os cursos anteriores no plano de aprendizado AWS ML Engineer Associate.


Conteúdo do curso

  • Seção 1: Introdução
    • Lição 1: Como usar este curso
    • Lição 2: Introdução ao domínio
    • Lição 3: Visão geral do curso
  • Seção 2: Monitoramento de soluções de machine learning
    • Lição 4: A importância do monitoramento em ML
    • Lição 5: Detecção de desvios no monitoramento
    • Lição 6: Amazon SageMaker Model Monitor
    • Lição 7: Monitoramento de desvios na qualidade de dados
    • Lição 8: Monitoramento da qualidade do modelo usando o SageMaker Model Monitor
    • Lição 9: Demonstração do SageMaker Model Monitor
    • Lição 10: Monitoramento do desvio de viés estatístico com o SageMaker Clarify
    • Lição 11: Monitoramento do desvio na designação de atributos
    • Lição 12: Monitoramento do desempenho do modelo usando testes A/B
    • Lição 13: Introdução ao SageMaker Model Dashboard
    • Lição 14: Escolha sua abordagem de monitoramento
  • Seção 3: Correção de problemas identificados pelo monitoramento
    • Lição 15: Correção e solução de problemas automatizadas
  • Seção 4: Conclusão
    • Lição 16: Resumo do curso
    • Lição 17: Avaliação
    • Lição 18: Entrar em contato conosco



Tags

Related Courses

Introduction to Artificial Intelligence
Stanford University via Udacity
Natural Language Processing
Columbia University via Coursera
Probabilistic Graphical Models 1: Representation
Stanford University via Coursera
Computer Vision: The Fundamentals
University of California, Berkeley via Coursera
Learning from Data (Introductory Machine Learning course)
California Institute of Technology via Independent