MLOps: Compresión y Cuantización de Modelos YOLO con OpenVino Toolkit
Offered By: The Machine Learning Engineer via YouTube
Course Description
Overview
Aprende a convertir un modelo YoloV10 al formato OpenVINO IR y cuantizarlo a int8 utilizando nnvc de OpenVINO en este tutorial de 49 minutos. Explora el proceso paso a paso para comprimir y cuantizar modelos YOLO, mejorando su rendimiento y eficiencia. Realiza ejemplos prácticos de inferencia en CPU comparando las versiones YoloV10 y YoloV8. Accede al notebook complementario en GitHub para seguir la implementación detallada y profundizar en las técnicas de MLOps aplicadas a la optimización de modelos de visión por computadora.
Syllabus
MLOps: OpenVino Toolkit Comprimir y Quantizar YOLO Model #datascience #machinelearning
Taught by
The Machine Learning Engineer
Related Courses
Intel® Edge AI Fundamentals with OpenVINO™Intel via Udacity tinyML Vision Challenge - Intel-Luxonis DepthAI Platform Overview
tinyML via YouTube Machine Learning in Fastly's Compute@Edge
Linux Foundation via YouTube End-to-End AI Developer Journey with Containerized Assets Using Intel DevCatalog and DevCloud
Docker via YouTube Accelerate Your Deep Learning Inferencing with the Intel DL Boost Technology
EuroPython Conference via YouTube