Transformer Models and BERT Model - Français
Offered By: Google Cloud via Coursera
Course Description
Overview
          Ce cours présente l'architecture Transformer et le modèle BERT (Bidirectional Encoder Representations from Transformers). Vous découvrirez quels sont les principaux composants de l'architecture Transformer, tels que le mécanisme d'auto-attention, et comment ils sont utilisés pour créer un modèle BERT. Vous verrez également les différentes tâches pour lesquelles le modèle BERT peut être utilisé, comme la classification de texte, les questions-réponses et l'inférence en langage naturel. Ce cours dure environ 45 minutes.
        
Syllabus
- Modèles Transformer et modèle BERT : présentation
- Dans ce module, vous découvrirez quels sont les principaux composants de l'architecture Transformer, tels que le mécanisme d'auto-attention, et comment ils sont utilisés pour créer un modèle BERT. Vous verrez également les différentes tâches pour lesquelles le modèle BERT peut être utilisé, comme la classification de texte, les questions-réponses et l'inférence en langage naturel.
Taught by
Google Cloud Training
Related Courses
Axial-DeepLab - Stand-Alone Axial-Attention for Panoptic SegmentationYannic Kilcher via YouTube Linformer - Self-Attention with Linear Complexity
Yannic Kilcher via YouTube Synthesizer - Rethinking Self-Attention in Transformer Models
Yannic Kilcher via YouTube The Narrated Transformer Language Model
Jay Alammar via YouTube Learning the Structure of EHR with Graph Convolutional Transformer - Edward Choi
Stanford University via YouTube
