LLMOps: Intel OpenVino Toolkit - Inferencia CPU y GPU con Transformers
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Aprende a utilizar el toolkit OpenVino de Intel para optimizar la inferencia de modelos Transformers en CPU y GPU. Este tutorial de 23 minutos guía paso a paso en la instalación del runtime de OpenVino, la conversión de un modelo Transformers al formato propietario de Intel, y la realización de inferencias tanto en GPU como en CPU. Accede al notebook complementario en GitHub para seguir la práctica y profundizar en la implementación de LLMOps utilizando las herramientas de Intel para ciencia de datos y aprendizaje automático.
Syllabus
LLMOps: Intel OpenVino toolkit Inferencia CPU y GPU Transformers #datascience #machinelearning
Taught by
The Machine Learning Engineer
Related Courses
Neural Networks for Machine LearningUniversity of Toronto via Coursera Good Brain, Bad Brain: Basics
University of Birmingham via FutureLearn Statistical Learning with R
Stanford University via edX Machine Learning 1—Supervised Learning
Brown University via Udacity Fundamentals of Neuroscience, Part 2: Neurons and Networks
Harvard University via edX