YoVDO

Modèles de séquence

Offered By: DeepLearning.AI via Coursera

Tags

Deep Learning Courses Long short-term memory (LSTM) Courses Audio Processing Courses Speech Recognition Courses Attention Mechanisms Courses

Course Description

Overview

Cette formation vous apprendra à construire des modèles pour le langage naturel, l’audio et les autres données de séquence. Grâce à l’apprentissage profond, les algorithmes de séquence fonctionnent beaucoup mieux qu’il y a deux ans ; nous disposons donc de nombreuses applications très intéressantes en matière de reconnaissance vocale, de synthèse musicale, de chatbots, de traduction automatique, de compréhension naturelle du langage, etc. Vous allez: - Comprendre comment construire et former des réseaux neuronaux récurrents (RNN) et des variantes couramment utilisées telles que les GRU et les LSTM. - Être capable d’appliquer des modèles de séquence à des problèmes de langage naturel, y compris la synthèse de texte. - Pouvoir appliquer des modèles de séquence à des applications audio, incluant la reconnaissance vocale et la synthèse musicale. C’est le cinquième et dernier cours de la spécialisation Apprentissage profond. deeplearning.ai travaille également en partenariat avec le NVIDIA Deep Learning Institute (DLI) dans le cours 5, Modèles de séquence, afin de fournir une affectation de programmation sur la traduction automatique avec l’apprentissage en profondeur. Vous aurez la possibilité de construire un projet d’apprentissage en profondeur avec un contenu de pointe, pertinent pour l’industrie.

Syllabus

  • Réseaux neuronaux récurrents
    • Découvrez les réseaux neuronaux récurrents. Ce type de modèle s’est avéré extrêmement performant sur les données temporelles. Il comporte plusieurs variantes, y compris les LSTM, les GRU et les RNN bidirectionnels, que vous allez découvrir dans cette section.
  • Traitement automatique du langage naturel et prolongements lexicaux
    • Le traitement du langage naturel avec l'apprentissage profond est une combinaison importante. En utilisant des représentations de vecteurs de mots et des couches de prolongements, vous pouvez former des réseaux neuronaux récurrents avec des performances exceptionnelles, dans une grande variété de secteurs. Des exemples d’applications sont l’analyse de sentiments, la reconnaissance d’entités nommées et la traduction automatique.
  • Modèles de séquence et mécanisme d’attention
    • Les modèles de séquence peuvent être améliorés à l’aide d’un mécanisme d’attention. Cet algorithme aidera votre modèle à comprendre où celui-ci doit focaliser son attention, compte tenu d’une séquence d’entrées. Cette semaine, vous apprendrez également à reconnaître la parole et à gérer les données audio.

Taught by

Andrew Ng, Kian Katanforoosh and Younes Bensouda Mourri

Related Courses

Amazon Connect Contact Lens Fundamentals
Amazon Web Services via AWS Skill Builder
Amazon Transcribe: come iniziare (Italiano) | Amazon Transcribe Getting Started (Italian)
Amazon Web Services via AWS Skill Builder
Amazon Transcribe Getting Started (Indonesian)
Amazon Web Services via AWS Skill Builder
Introduction to Machine Learning on AWS
Amazon Web Services via edX
AWS SimuLearn: Sentiment Analysis from Customer Calls
Amazon Web Services via AWS Skill Builder