LLMOps: Intel OpenVino Toolkit - Inferencia CPU y GPU con Transformers
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Aprende a utilizar el toolkit OpenVino de Intel para optimizar la inferencia de modelos Transformers en CPU y GPU. Este tutorial de 23 minutos guía paso a paso en la instalación del runtime de OpenVino, la conversión de un modelo Transformers al formato propietario de Intel, y la realización de inferencias tanto en GPU como en CPU. Accede al notebook complementario en GitHub para seguir la práctica y profundizar en la implementación de LLMOps utilizando las herramientas de Intel para ciencia de datos y aprendizaje automático.
Syllabus
LLMOps: Intel OpenVino toolkit Inferencia CPU y GPU Transformers #datascience #machinelearning
Taught by
The Machine Learning Engineer
Related Courses
Introduction to Artificial IntelligenceStanford University via Udacity Natural Language Processing
Columbia University via Coursera Probabilistic Graphical Models 1: Representation
Stanford University via Coursera Computer Vision: The Fundamentals
University of California, Berkeley via Coursera Learning from Data (Introductory Machine Learning course)
California Institute of Technology via Independent