Transformer Models and BERT Model - 简体中文
Offered By: Google Cloud via Coursera
Course Description
Overview
本课程向您介绍 Transformer 架构和 Bidirectional Encoder Representations from Transformers (BERT) 模型。您将了解 Transformer 架构的主要组成部分,例如自注意力机制,以及该架构如何用于构建 BERT 模型。您还将了解可以使用 BERT 的不同任务,例如文本分类、问答和自然语言推理。完成本课程估计需要大约 45 分钟。
Syllabus
- Transformer 模型和 BERT 模型:概览
- 在本单元中,您将了解 Transformer 架构的主要组成部分,例如自注意力机制,以及该架构如何用于构建 BERT 模型。您还将了解可以使用 BERT 的不同任务,例如文本分类、问答和自然语言推理。
Taught by
Google Cloud Training
Related Courses
Axial-DeepLab - Stand-Alone Axial-Attention for Panoptic SegmentationYannic Kilcher via YouTube Linformer - Self-Attention with Linear Complexity
Yannic Kilcher via YouTube Synthesizer - Rethinking Self-Attention in Transformer Models
Yannic Kilcher via YouTube The Narrated Transformer Language Model
Jay Alammar via YouTube Learning the Structure of EHR with Graph Convolutional Transformer - Edward Choi
Stanford University via YouTube