YoVDO

AWS ML Engineer Associate 3.1: Seleção de uma infraestrutura de implantação (Português) | AWS ML Engineer Associate 3.1 Select a Deployment Infrastructure (Portuguese)

Offered By: Amazon Web Services via AWS Skill Builder

Tags

Machine Learning Courses DevOps Courses Amazon Web Services (AWS) Courses Edge Computing Courses Cloud Architecture Courses Model Deployment Courses Containerization Courses

Course Description

Overview

Save Big on Coursera Plus. 7,000+ courses at $160 off. Limited Time Only!

Este curso fornece uma compreensão abrangente sobre a implantação do modelo no pipeline de machine learning (ML). Na introdução, você aprenderá os conceitos fundamentais de implantação. Em seguida, na primeira seção, você aprenderá quais são os componentes essenciais de uma infraestrutura de produção. Esta seção orienta a seleção dos melhores serviços de orquestração para fluxos de trabalho de ML. Em seguida, você aprenderá quais são as ferramentas e serviços da Amazon Web Services (AWS) que podem ser usados durante a fase de implantação do ciclo de vida do ML. A próxima seção abordará a infraestrutura de inferência. Você aprenderá a selecionar a melhor meta de implantação de acordo com os benefícios-chave. Você também aprenderá a selecionar o ambiente apropriado para treinamento e inferência de acordo com os requisitos específicos. Em seguida, vários tipos de instâncias de computação da AWS serão exploradas, e assim, você aprenderá a diferenciar os recursos sob demanda e provisionados. Por fim, será possível analisar como o provisionamento de recursos computacionais é feito em ambientes de produção e teste.

  • Nível do curso: avançado
  • Duração: 1 hora


Observação: Este curso tem transcrições/legendas traduzidas. A narração está em inglês. Para exibir as legendas, clique no botão CC no canto inferior direito do player.


Atividades

  • Materiais on-line
  • Perguntas de teste de conhecimento
  • Uma avaliação do curso


Objetivos do curso

  • Definição da implantação do modelo no pipeline de ML.
  • Descrição de uma infraestrutura de produção e seus componentes.
  • Comparação e contraste entre os serviços de orquestração para fluxos de trabalho de ML.
  • Descrição das considerações sobre o design da infraestrutura de implantação.
  • Seleção da melhor meta de implantação de acordo com os benefícios-chave.
  • Descrição das estratégias de implantação do modelo de ML e seus requisitos de endpoint.
  • Seleção das melhores estratégias de hospedagem de implantação de modelos de acordo com os benefícios-chave.
  • Seleção das implantações de vários modelos ou vários contêineres de acordo com os benefícios-chave.
  • Seleção da melhor opção de contêiner de acordo com os benefícios-chave.
  • Listagem e descrição dos tipos de instâncias computacionais da AWS para soluções de ML.
  • Seleção do melhor ambiente computacional para treinamento e inferência de acordo com requisitos específicos.
  • Diferenciação entre recursos sob demanda e provisionados para problemas de desempenho e scaling.
  • Descrição do modo de provisionamento de recursos computacionais em ambientes de produção e teste.
  • Descrição dos métodos para otimização de modelos em dispositivos de ponta.


Público-alvo

  • Arquitetos de nuvem
  • Engenheiros de machine learning


Habilidades recomendadas

  • Ter pelo menos um ano de experiência com o uso da solução SageMaker e outros serviços da AWS para engenharia de ML
  • Ter pelo menos um ano de experiência em uma função relacionada, como desenvolvedor de software de back-end, desenvolvedor de DevOps, engenheiro de dados ou cientista de dados
  • Ter compreensão básica de linguagens de programação, como Python
  • Ter concluído os cursos anteriores no plano de aprendizado AWS ML Engineer Associate


Conteúdo do curso

  • Seção 1: Introdução
    • Lição 1: Como usar este curso
    • Lição 2: Introdução ao domínio 3
    • Lição 3: Visão geral do curso
    • Lição 4: Fundamentos da implantação do modelo
  • Seção 2: Construção de modelos e infraestrutura de implantação
    • Lição 5: Construção de um framework repetível
    • Lição 6: Opções de orquestração do fluxo de trabalho
  • Seção 3: Infraestrutura de inferência
    • Lição 7: Considerações de implantação e opções de destino
    • Lição 8: A escolha de uma estratégia de inferência de modelo
    • Lição 9: Tipos de contêiner e instância para inferência
    • Lição 10: Otimização da implantação com computação de ponta
  • Seção 4: Conclusão
    • Lição 11: Resumo do curso
    • Lição 12: Avaliação
    • Lição 13: Entrar em contato conosco



Tags

Related Courses

A Beginner's Guide to Kubernetes for Container Orchestration
Packt via FutureLearn
A Day in the Life of a Data Engineer (Indonesian)
Amazon Web Services via AWS Skill Builder
A Day in the Life of a Data Engineer (Japanese)
Amazon Web Services via AWS Skill Builder
A Day in the Life of a Data Engineer (Simplified Chinese)
Amazon Web Services via AWS Skill Builder
Accessing your AWS EC2 servers
Coursera Project Network via Coursera