YoVDO

Transformer Models and BERT Model - 繁體中文

Offered By: Google Cloud via Coursera

Tags

Google Cloud Platform (GCP) Courses Text Classification Courses Transformer Models Courses Self-Attention Mechanisms Courses Natural Language Inference Courses

Course Description

Overview

Save Big on Coursera Plus. 7,000+ courses at $160 off. Limited Time Only!
這堂課程將說明變換器架構,以及基於變換器的雙向編碼器表示技術 (BERT) 模型,同時帶您瞭解變換器架構的主要組成 (如自我注意力機制) 和如何用架構建立 BERT 模型。此外,也會介紹 BERT 適用的各種任務,像是文字分類、問題回答和自然語言推論。課程預計約 45 分鐘。

Syllabus

  • 變換器模型與 BERT 模型:總覽
    • 在這個單元中,您可以瞭解變換器架構的主要組成 (如自我注意力機制) 和如何用架構建立 BERT 模型,同時認識 BERT 適用的各種任務,像是文字分類、問題回答和自然語言推論。

Taught by

Google Cloud Training

Related Courses

Axial-DeepLab - Stand-Alone Axial-Attention for Panoptic Segmentation
Yannic Kilcher via YouTube
Linformer - Self-Attention with Linear Complexity
Yannic Kilcher via YouTube
Synthesizer - Rethinking Self-Attention in Transformer Models
Yannic Kilcher via YouTube
The Narrated Transformer Language Model
Jay Alammar via YouTube
Learning the Structure of EHR with Graph Convolutional Transformer - Edward Choi
Stanford University via YouTube