YoVDO

Modèles de séquence

Offered By: DeepLearning.AI via Coursera

Tags

Deep Learning Courses Long short-term memory (LSTM) Courses Audio Processing Courses Speech Recognition Courses Attention Mechanisms Courses

Course Description

Overview

Cette formation vous apprendra à construire des modèles pour le langage naturel, l’audio et les autres données de séquence. Grâce à l’apprentissage profond, les algorithmes de séquence fonctionnent beaucoup mieux qu’il y a deux ans ; nous disposons donc de nombreuses applications très intéressantes en matière de reconnaissance vocale, de synthèse musicale, de chatbots, de traduction automatique, de compréhension naturelle du langage, etc. Vous allez: - Comprendre comment construire et former des réseaux neuronaux récurrents (RNN) et des variantes couramment utilisées telles que les GRU et les LSTM. - Être capable d’appliquer des modèles de séquence à des problèmes de langage naturel, y compris la synthèse de texte. - Pouvoir appliquer des modèles de séquence à des applications audio, incluant la reconnaissance vocale et la synthèse musicale. C’est le cinquième et dernier cours de la spécialisation Apprentissage profond. deeplearning.ai travaille également en partenariat avec le NVIDIA Deep Learning Institute (DLI) dans le cours 5, Modèles de séquence, afin de fournir une affectation de programmation sur la traduction automatique avec l’apprentissage en profondeur. Vous aurez la possibilité de construire un projet d’apprentissage en profondeur avec un contenu de pointe, pertinent pour l’industrie.

Syllabus

  • Réseaux neuronaux récurrents
    • Découvrez les réseaux neuronaux récurrents. Ce type de modèle s’est avéré extrêmement performant sur les données temporelles. Il comporte plusieurs variantes, y compris les LSTM, les GRU et les RNN bidirectionnels, que vous allez découvrir dans cette section.
  • Traitement automatique du langage naturel et prolongements lexicaux
    • Le traitement du langage naturel avec l'apprentissage profond est une combinaison importante. En utilisant des représentations de vecteurs de mots et des couches de prolongements, vous pouvez former des réseaux neuronaux récurrents avec des performances exceptionnelles, dans une grande variété de secteurs. Des exemples d’applications sont l’analyse de sentiments, la reconnaissance d’entités nommées et la traduction automatique.
  • Modèles de séquence et mécanisme d’attention
    • Les modèles de séquence peuvent être améliorés à l’aide d’un mécanisme d’attention. Cet algorithme aidera votre modèle à comprendre où celui-ci doit focaliser son attention, compte tenu d’une séquence d’entrées. Cette semaine, vous apprendrez également à reconnaître la parole et à gérer les données audio.

Taught by

Andrew Ng, Kian Katanforoosh and Younes Bensouda Mourri

Related Courses

Machine Learning Capstone: An Intelligent Application with Deep Learning
University of Washington via Coursera
Elaborazione del linguaggio naturale
University of Naples Federico II via Federica
Deep Learning for Natural Language Processing
University of Oxford via Independent
Deep Learning Summer School
Independent
Sequence Models
DeepLearning.AI via Coursera