LLMOps: Intel OpenVino Toolkit - Inferencia CPU y GPU con Transformers
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Aprende a utilizar el toolkit OpenVino de Intel para optimizar la inferencia de modelos Transformers en CPU y GPU. Este tutorial de 23 minutos guía paso a paso en la instalación del runtime de OpenVino, la conversión de un modelo Transformers al formato propietario de Intel, y la realización de inferencias tanto en GPU como en CPU. Accede al notebook complementario en GitHub para seguir la práctica y profundizar en la implementación de LLMOps utilizando las herramientas de Intel para ciencia de datos y aprendizaje automático.
Syllabus
LLMOps: Intel OpenVino toolkit Inferencia CPU y GPU Transformers #datascience #machinelearning
Taught by
The Machine Learning Engineer
Related Courses
Large Language Models: Application through ProductionDatabricks via edX LLMOps - LLM Bootcamp
The Full Stack via YouTube MLOps: Why DevOps Solutions Fall Short in the Machine Learning World
Linux Foundation via YouTube Quick Wins Across the Enterprise with Responsible AI
Microsoft via YouTube End-to-End AI App Development: Prompt Engineering to LLMOps
Microsoft via YouTube